MiTE wykład 1 7 wersja 02

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 1



















Miernictwo i Techniki Eksperymentu

Oprac. Janusz Frączek

Uwaga: Jest to wersja wstępna wykładu, która może zawierać błędy.

W razie wątpliwości proszę przedyskutować je z prowadzącym przedmiot

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 2

Spis treści

1.1

Piśmiennictwo ........................................................................................... 3

1.2

Pojęcia wstępne ........................................................................................ 3

2

Zmienna losowa .............................................................................. 9

2.1

Zmienna losowa jednowymiarowa. ........................................................ 9

2.2

Typy zmiennych losowych..................................................................... 10

3

Charakterystyki zmiennej losowej .............................................. 13

3.1

Charakterystyki liczbowe zmiennych losowych ................................. 13

4

Zmienne losowe wielowymiarowe. .............................................. 17

4.1

Zmienna losowa dwuwymiarowa ......................................................... 17

5

Typowe rozkłady zmiennych losowych ...................................... 25

5.1

Rozkłady dyskretne ............................................................................... 25

5.1.1

Rozkład dwupunktowy .................................................................................................................... 25

5.1.2

Rozkład dwumianowy ..................................................................................................................... 25

5.1.3

Rozkład Poissona ............................................................................................................................ 27

5.2

Rozkłady zmiennych typu ciągłego ...................................................... 28

5.2.1

Rozkład jednostajny ........................................................................................................................ 29

5.2.2

Rozkład normalny ........................................................................................................................... 30

5.2.3

Rozkład chi-kwadrat ....................................................................................................................... 32

5.2.4

Rozkład t Studenta .......................................................................................................................... 34

5.3

Addytywność rodziny zmiennych losowych. ....................................... 35

6

Twierdzenia graniczne ................................................................. 37

6.1

Nierówność Czebyszewa ........................................................................ 37

6.2

Twierdzenia graniczne .......................................................................... 38

7

Podstawowe pojęcia statystyki .................................................... 44

7.1

Definicje .................................................................................................. 44

7.2

Estymacja pojęcia podstawowe ............................................................ 45

7.3

Estymacja punktowa. ............................................................................ 45

7.3.1

Zasady tworzenia estymatorów punktowych .................................................................................. 45

7.3.2

Metody uzyskiwania estymatorów –

metoda momentów (analogii pomiędzy próbką i populacją) 46

7.3.3

Metody uzyskiwania estymatorów –

metoda największej wiarygodności (MNW) ........................ 49

7.4

Estymacja przedziałowa. ....................................................................... 52

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 3

1.1

Piśmiennictwo

Oderfeld J.: Statystyczne podstawy prac doświadczalnych, Wydawnictwo Politechniki
Warszawskiej, 1990

Plucińska A., Pluciński E.: Probabilistyka, WNT, Warszawa 2000

Kordecki W.: Rachunek prawdopodobieństwa i statystyka matematyczna, Oficyna

Wydawnicza GiS, Wrocław 2003

Gajek L., Kałuszka M.: Wnioskowanie statystyczne, modele i metody. WNT 1996.

• Bobrowski D.: Probabilistyka w zastosowaniach technicznych, WNT 1986

Majsnerowska Małgorzata: Elementarny wykład z rachunku prawdopodobieństwa
z

zadaniami. Skrypt UW, Wrocław 2002.

Zieliński R.: Tablice statystyczne, PWN, W-wa 1972.

• Pakiety komputerowe: MATLAB – Statistical toolbox, Statistica, Statgraphics

1.2

Pojęcia wstępne

Prawdopodobieństwo:

Niech

Ω będzie zbiorem możliwych wyników w doświadczeniu losowym czyli

przes

trzenią zdarzeń, elementy Ω to zdarzenia elementarne. Podzbiór

Ω

A

to zdarzenie, a

jego elementy to zdarzenia elementarne

zdarzenie niemożliwe,

Ω\A

A'

=

zdarzenie

przeciwne,

B

A

-

jednocześnie zaszło A i B,

B

A

-

zaszło co najmniej jedno z nich. Jeśli

Φ

B

A

=

-

zdarzenia się wykluczają.

Definicje

:

1.

{

}

n

Ω

ω

ω

ω

,...,

,

2

1

=

-

skończona przestrzeń zdarzeń

Funkcja

( )

n

i

i

i

,...,

2

,

1

P

:

P

=

ω

ω

taka, że

( )

( )

1

P

0

P

i

=

n

i

i

i

oraz

ω

ω

, nazywa się

prawdopodobieństwem dyskretnym skończonym

Dla dowolnego zdarzenia

.

Ω

A

:

( )

( )

{

}

=

A

i

i

P

A

ω

ω

:

1

P

(2.1)

Jeżeli

( )

( )

=

=

=

A

A

n

i

n

i

P

,...,

2

,

1

1

P

ω

(2.2)

Jest to

klasyczna definicja prawdopodobieństwa.

Sprawdzamy, że:

a)

( )

0

P

A

b)

Prawdopodobieństwo sumy skończonej liczby zdarzeń parami wykluczających

się jest równe sumie prawdopodobieństw

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 4

c)

( )

1

P

=

PRZYKŁAD 2.1

Zadanie

Dwie radiostacje tego samego typu położone w pewnej odległości od siebie mogą być nastrojone na

jedną z 10 częstotliwości. Jakie jest prawdopodobieństwo, że obie radiostacje nastrojone i włączone niezależnie

będą miały tę samą częstotliwość?

(Bobrowski str. 101)

( )

{

}

10

,

,

2

,

1

,

,

=

=

j

i

e

ij

Rozwiązanie

,

e

ij

zdarzenie elementarne, że pierwsza radiostacja ma częstotliwość i

a druga ma j.

{

}

j

i

e

A

ij

=

=

,

,

( )

%

10

%

100

1

,

0

100

10

P

=

=

=

=

A

A

Przypomnienie wzorów z kombinatoryki:

Liczba kombinacji





k

n

(podzbiorów k elementowych zbioru n-elementowego) k z n:

Liczba permutacji

(możliwych wszystkich uporządkowań zbioru zbioru n elementowego):

n!

Liczba wariacji bez powtórzeń

(

)

!

!

!

k

n

n

k

k

n

=





(uporządkowań k elementowych wybranych ze zbioru n-elementowego bez

możliwości powtórzeń):

Liczba wariacji z powtórzeniami

(uporządkowań k-elementowych wybranych ze zbiorów n-elementowych z

możliwością powtórzeń) :

n

k

2.

Jeżeli:

{

}

( )

( )

=

=

=

=

1

2

1

1

,

,

2

,

1

0

P

,

,

i

i

i

P

i

oraz

Ω

ω

ω

ω

ω

.

(2.3)

to P jest

prawdopodobieństwem dyskretnym nieskończonym.

3. Definicja „nowoczesna”

Dana niepusta rodzina F podzbiorów

Ω spełniająca warunki:

a)

Jeśli:

F

A

, to

F

A

'

b)

Jeśli

,

2

,

1

=

i

F

A

i

, to

F

A

i

i

nazywa się σ – ciałem.

Jest to więc niepusta rodzina zbiorów (zdarzeń) zamknięta na branie dopełnień i

nieskończonych sum. W przypadku skończonego zbioru Ω, zwykle rozważanym σ ciałem jest
rodzina wszystkich jego podzbiorów.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 5

Funkcja rzeczywista P

określona na podzbiorach przestrzeni Ω, tworzących σ ciało F

mająca własności:

Definicja

a.

( )

0

P

A

b.

j

i

A

A

j

i

=

j

i,

to

=

=

=

1

1

)

(

P

)

(

P

i

i

i

i

A

A

c.

( )

1

P

=

nazywa się prawdopodobieństwem.

Trójka

(Ω,F,P) – to przestrzeń probabilistyczna, a własności a, b, c, to aksjomaty

prawdopodobieństwa.

Łatwo wykazać, że definicje 1 i 2 są szczególnym przypadkiem definicji 3.

a)

Własności

( ) ( )

B

A

B

A

P

P

-

monotoniczność

b)

( )

( )

A

A

P

1

'

P

=

,

( )

1

P

A

c)

(

) ( ) ( ) (

)

B

A

B

A

B

A

+

=

P

P

P

P

d)

( )

=

=

n

i

i

n

i

i

A

A

1

1

P

P

-

nierówność Boole’a

Dowody pomijamy

(zobacz piśmiennictwo)

Rozważmy doświadczenie losowe i zwiążmy z nim przestrzeń (

Prawdopodobieństwo warunkowe

,F

,P). Jeśli

interesuje nas wynik doświadczenia należącego do podzbioru

B

, dla którego P(B)>0 to

możemy zredukować wyjściową przestrzeń probabilistyczną do przestrzeni (B, F

B

,

)

( B

P

),

gdzie F

B

={

B

A

,

F

A

} oraz

(

)

(

)

( )

F

A

dla

B

B

A

B

A

=

P

P

|

P

(2.4)

Jest to prawdopodobieństwo warunkowe zdarzenia A pod warunkiem, że zaszło B lub

krócej,

prawdopodobieństwo A pod warunkiem B.

Zauważmy, że wzór (2.4) jest równoważny zależności:

(

) (

) ( )

B

P

B

A

B

A

=

|

P

P

o ile

( )

0

P

>

B

(2.5)

Jeżeli ciąg zdarzeń

Prawdopodobieństwo całkowite

{

}

n

i

B

i

,...,

1

,

=

tworzy

zupełny układ zdarzeń w przestrzeni

(tzw. rozbicie przestrzeni

) tzn. spełnione są trzy warunki:

n

i

i

B

1

=

=

, P(B

i

)>0 oraz

Φ

B

B

j

i

j

i

=

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 6

to dla dowolnego

F

A

zachodzi:

( )

(

) ( )

i

n

i

i

B

B

A

A

P

|

P

P

1

=

=

(2.6)

Jest to wzór na prawdopodobieństwo całkowite.

PRZYKŁAD 2.2

Zadanie

„Podpatrzyliśmy”, że ktoś wpisuje trzyliterowe hasło do komputera korzystając tylko z klawiszy a oraz

b.

Ponadto zauważyliśmy, że pierwszy znak hasła jest litera a. Jaka jest szansa, że trafimy wybierając jako drugą

literę znak b i jako trzecią literę znak b ?

(ilustrujące wzór na prawdopodobieństwo warunkowe)

Zadanie rozwiążemy na dwa sposoby.

Rozwiązanie:

1.

Zauważmy, że:

(

) (

) (

) (

) (

) (

) (

) (

)

{

}

b

b

b

a

b

b

b

a

b

a

a

b

b

b

a

a

b

a

b

a

a

a

a

a

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

=

(a)


Rozważmy nową przestrzeń zdarzeń elementarnych

(

) (

) (

) (

)

{

}

b

b

a

a

b

a

b

a

a

a

a

a

S

,

,

,

,

,

,

,

,

,

,

,

=

i jej podzbiór

zdarzenie

(

)

{

}

b

b

a

D

S

,

,

=

. W takim razie:

4

1

)

(

=

=

S

D

D

P

S

S

(b)

2. Wykorzystamy teraz wzór (2.4):

4

1

8

4

8

1

)

(

)

(

)

(

=

=

=

S

P

S

D

P

S

D

P

S

(b)

A zatem wynik jest ten sam.

PRZYKŁAD 2.3

Zadanie

Student na zajęcia dojeżdża rowerem raz na dwa dni (zdarzenie R), autobusem raz na trzy dni

(zdarzenie A) oraz tramwa

jem raz na sześć dni (zdarzenie T). Jeśli jedzie rowerem spóźnia się raz na 60

przypadków, jeśli autobusem raz na 20 przypadków, jeśli tramwajem raz na 10 przypadków. Jakie jest

prawdopodobieństwo spóźnienia się studenta (zdarzenie S)?

(

prawdopodobieństwo całkowite)

Drzewo modelu – dendryt.

Rozwiązanie

1/2

R

1/3

A

1/6

T

1/60

S

Z

S

Z

S

Z

1/20

1/10

R – rower
A – autobus
T – tramwaj

S

spóźnienie

Z

zdążenie

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 7

( ) (

) ( ) (

) ( ) (

) ( )

24

1

6

1

10

1

3

1

20

1

2

1

60

1

|

|

|

=

+

+

=

+

+

=

T

P

T

S

P

A

P

A

S

P

R

P

R

S

P

S

P

Przy założeniach poprzedniego twierdzenia dla dowolnego zdarzenie

Wzór Bayesa

F

A

takiego,

że

( )

0

>

A

P

. Zachodzi:

(

)

(

) ( )

(

) ( )

=

=

n

i

i

i

i

i

i

B

B

A

B

B

A

A

B

1

P

|

P

P

|

P

|

P

n

i

,...,

1

=

(2.7)


Nomenklatura:
P(B

i

|A) -

prawdopodobieństwo a'posteriori

1

P(B

i

) -

prawdopodobieństwo a'priori

2

Wzór (2.7)

nosi nazwę wzoru na prawdopodobieństwo przyczyny

PRZYKŁAD 2.4

Zadanie

W magazynie znajdują się monitory komputerowe wyprodukowane w trzech różnych oddziałach firmy,

w

tym: 50% z oddziału w Polsce (R), 30% z oddziału w Chinach (C), 20% z oddziału w Japoni (J). Wiadomo, że

prawdopodobieństwo wyprodukowania monitora wadliwego (plamki na ekranie) jest równe 0,05 dla oddziału
(R

) i (C) oraz 0,12 dla oddziału w (J). Odbiór odbywa się na podstawie kontroli wyrywkowej. Załóżmy, że

wylosowany wyrywkowo monitor okazał się wadliwy, jakie jest prawdopodobieństwo, że jest to monitor
wyprodukowany w Polsce.

a) a’priori,

Rozwiązanie

A - monitor jest wadliwy:

P(R) = 0,5

P(C) = 0,3

P(J) = 0,2

P(A|R) = 0,05 = P(A|C)

P(A|J) = 0,12

b) a’posteriori:

(

)

(

) ( )

(

) ( ) (

) ( ) (

) ( )

391

,

0

064

,

0

025

,

0

2

.

0

12

,

0

3

.

0

05

,

0

5

.

0

05

,

0

5

.

0

05

,

0

P

|

P

|

P

|

|

P

|

P

=

=

+

+

=

+

+

=

J

J

A

C

P

C

A

R

P

R

A

P

R

P

R

A

A

R

Niezależność zdarzeń

Niech

F

B

A

,

będą zdarzeniami takimi, że P(A|B) =P(A), czyli zajście B nie zmienia

prawdopodobieństwa zajścia A. Czyli A jest niezależne, od B tzn:

(

) ( ) ( )

B

P

A

B

A

=

P

P

(2.8)

1

a'posteriori

na podstawie faktów, z następstwa,

2

a'priori

bez zapoznania się z faktami, uprzedzając fakty, przed doświadczeniem, z góry.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 8

Uogólnienie:

Niech C

będzie dowolną rodziną zdarzeń. Jeśli dla skończonej podrodziny {A

1

,A

2

,...,A

n

}

zdarzeń z C spełniony jest warunek:

( )

=

=

=

n

i

i

n

i

i

A

A

1

1

P

P

(2.9)


to C nazywamy

rodziną zdarzeń niezależnych.


Uwaga:

Niezależność wg wzoru (2.9) jest własnością silniejszą, niż niezależność parami.

PRZYKŁAD 2.5

Zadanie

Mamy dużą partię uszkodzonych dysków. Dyski są uszkodzone bo ¼ z nich piszczy, ¼ pracuje

niestabilnie, 1/4

się grzeje a ¼ ma wszystkie wymienione wady. Niech: A zdarzenie, że pierwszy losowo

wybrany dysk piszczy a B i C, że pracuje niestabilnie lub się grzeje. Czy zdarzenia A, B i C stanowią rodzinę

zdarzeń wzajemnie niezależnych?

( ) ( ) ( )

2

1

P

P

P

=

=

=

C

B

A

Rozwiązanie

(

) (

) (

)

4

1

P

P

P

=

=

=

C

B

C

A

B

A

(

) ( ) ( ) (

) ( ) ( ) (

) ( ) ( )

;

P

P

P

;

P

P

P

;

P

P

C

B

C

B

C

A

C

A

B

P

A

B

A

=

=

=

(

) ( ) ( ) ( )

8

1

P

P

P

P

4

1

=

=

C

B

A

C

B

A

Czyli zdarzenia A, B i C

nie stanowią rodziny zdarzeń wzajemnie niezależnych



background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 9

2 Zmienna losowa

2.1 Zmienna losowa jednowymiarowa.

Weźmy trojkę probabilistyczną (

,F

,P). Wprowadzimy definicję:

Funkcję

R

X:

Ω

nazywamy

zmienną losową jednowymiarową, jeśli dla

każdego

R

a

zbiór

((

)

)

,

1

a

X

jest zdarzeniem, czyli:

((

)

F

a

X

)

,

1

. Realizacją

zmiennej losowej nazywa się wartość funkcji X w punkcie i oznacza małą literą x.

PRZYKŁAD 2.1

Weźmy dyski komputerowe. Losujemy z partii jeden i sprawdzamy, czy jest sprawny. Jeśli jest

stawiamy 1 jeśli nie 0.

Zadanie

{

}

nsp

sp

ω

ω

,

=

Rozwiązanie

, a zbiorem wartości jest zbiór {0,1}. Zmienna losowa przyjmuje wartość z pewnym

prawdopodobieństwem.

W przypadku pomiarów fizycznych

obarczonych błędem przypadkowym jako

zmienną losową przyjmuje się wprost funkcję, której realizacjami są wyniki pomiaru.

Rozkładem zmiennej losowej X nazywamy funkcję prawdopodobieństwa

przyporządkowującą zadanemu przedziałowi

(

)

x

,

wartości

( )

{

}

(

)

x

X

<

ω

ω :

P

, gdzie P

jest funkcją prawdopodobieństwa.

PRZYKŁAD 2.2

Zadanie

Dla danych z przykładu 2. zakładamy, że

( )

8

,

0

P

=

sp

ω

,

( )

2

,

0

P

=

nsp

ω

. Należy określic rozkład zmiennej

losowej.

Rozkład zmiennej losowej X definiuje się więc według wzoru:

Rozwiązanie

(

)



<

<

=

<

x

gdy

x

gdy

x

gdy

x

X

1

1

1

0

2

,

0

0

0

P

Zmienne losowe przyjmujące tę samą wartość, ale z różnym prawdopodobieństwem
(o

różnych rozkładach) uważamy za różne.

Uwagi

• W niek

tórych przypadkach wygodne jest posługiwanie się funkcją prawdopodobieństwa,

któr

ą określa się na zbiorach punktowych w następujący sposób:

( ) (

)

x

X

x

=

= P

P

(2.1)

Funkcję taką nazywa się funkcją prawdopodobieństwa zmiennej losowej X.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 10

2.2 Typy zmiennych losowych

W klasycznych wykładach rachunku prawdopodobieństwa i statystyki wyróżniamy zwykle:

1. Zmienne losowe typu skokowego

(dyskretną) (oznaczymy ten typ zmiennej SK)

2. Z

mienną losową typu ciągłego (albo w skrócie ciągłą) (oznaczymy ten typ zmiennej

C)

3. Zmienne losowe mieszane

Zmienna typu skokowego (SK)

,...

3

,

2

,

1

=

i

x

i

przyjmuje ściśle określone, dyskretne wartości liczbowe

(może być skończone, albo nie), czyli

(

)

i

i

p

x

X

=

=

P

. Z własności

prawdopodobieństwa

1

1

=

=

n

i

i

p

dla zmiennej o skończonej liczbie wartości, oraz

1

1

=

=

i

i

p

gdy ma nieskończoną liczbę wartości.

Znając pary uporządkowane (x

i

, p

i

)

mamy pełną informacje o rozkładzie zmiennej losowej

skokowej.

Funkcj

ę prawdopodobieństwa zmiennej losowej typu skokowego można zapisać w postaci:

( )

(

)

=

=

=

=

poza

x

x

dla

p

x

X

x

i

i

i

0

P

P

(2.2)

Zmienna losowa typu

ciągłego (C)

Mówimy, że zmienna losowa jest typu ciągłego jeżeli istnieje nieujemna funkcja

( )

x

f

taka

, że

( )

0

x

f

,

całka

( )

1

=

R

x

f

(lub

( )

1

=

x

f

)

i dla każdego przedziału

2

1

, x

x

{

}

(

)

=

2

1

)

(

)

(

:

P

2

1

x

x

dx

x

f

x

X

x

ω

ω

(2.3)

Dystrybuanta

Dla zmiennej losowej X jest to funkcja (zwyczajowo

oznaczana dużą literą F albo F

X

)

1

,

0

R

F:

taka, że:

( ) (

)

x

X

x

F

<

= P

(2.4)

Własności dystrybuanty:

1.

Dystrybuanta jest funkcją niemalejącą tzn:

( )

( )

2

1

2

1

2

1

,

x

F

x

F

x

x

x

x

<

R

2.

(

)

( )

( )

1

2

2

1

2

1

P

,

x

F

x

F

x

X

x

x

x

=

<

R

3.

( )

( )

0

lim

1

lim

=

=

−∞

x

F

x

F

x

x

4.

Jest funkcją co najmniej lewostronnie ciągłą

( )

( )

0

0

lim

x

F

x

F

x

x

=

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 11

PRZYKŁAD 2.3

Zadanie

Narysować wykres dystrybuanty zmiennej losowej (SK) z przykładu

2.2



<

<

=

x

gdy

x

gdy

x

gdy

x

F

1

1

1

0

2

,

0

0

0

)

(

Rozwiązanie


Na ogół dystrybuanta nie jest w każdym punkcie ciągła prawostronnie, Różne zmienne

losowe mogą tę samą dystrybuantę. Jeśli X jest zmienną losową typu ciągłego to dodatkowo

zachodzą następujące własności dla dystrybuanty:

5.

( )

( )

0

0

0

lim

x

F

x

F

x

x

x

=

+

prawostronna ciągłość

6.

(

)

0

P

0

0

=

=

x

X

x

R

7.

(

)

( )

=

=

2

1

)

(

)

(

P

,

1

2

2

1

2

1

x

x

x

F

x

F

dt

t

f

x

X

x

x

x

R

8.

W każdym punkcie ciągłości gęstości prawdopodobieństwa f(x) dystrybuanta F jest
różniczkowalna i

( )

( )

x

f

dx

x

dF

=

Zwróćmy uwagę, że z uwagi 6 wynika, że fakt iż prawdopodobieństwo zdarzenia jest
równe zero nie oznacza, zdarzenie nie jest

możliwe (nie może zajść).

PRZYKŁAD 2.4

Zadanie

Zmienna losowa (C) ma funkcję gęstości

( )

=

poza

x

cx

x

f

0

1

0

3

Należy:

1.

Obliczyć stałą c

2.

Znaleźć dystrybuantę

3.

Narysować wykres gęstości i dystrybuanty

4.

Znaleźć

2

1

2

1

P

x

F(x)

x

0,2

0,8

1

1

0.2

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 12

Ad 1. Ponieważ

Rozwiązanie

( )

1

=

R

x

f

to:

4

1

4

1

0

3

=

=

=

c

c

dx

cx

Ad 2.

( )

( )

<

<

=

=

=

1

1

1

0

0

0

4

4

3

x

dla

x

dla

x

x

dla

dt

t

x

f

x

F

x

x

Ad 3.

Ad 4.

( )

( ) ( )

16

1

2

1

2

1

2

1

2

1

2

1

P

4

2

1

2

1

=

=

=

=

F

F

dx

x

f

X

x

1

x

1

F(x)

f(x)

4

1

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 13

3 Charakterystyki zmiennej losowej

3.1 Charakterystyki liczbowe zmiennych losowych

Rozkład zmiennej losowej może być jednoznacznie określony przez podanie

prawdopodobieństwa każdej możliwej wartości zmiennej losowej, bądź przez podanie
analitycznej postaci dyst

rybuanty lub gęstości prawdopodobieństwa. W praktyce zamiast

pełnej informacji o rozkładzie prawdopodobieństwa podaje się kilka charakterystycznych
parametrów, które

opisują własności zmiennych losowych. Do najważniejszych

charakterystyk należą miary położenia i miary rozrzutu. Do miar położenia należą wartość
oczekiwana i kwantyle

(w szczególności mediana i kwartale) natomiast do miar rozrzutu

wariancja i odchylenie standardowe

. Ponadto omówimy pojęcia momentów zwykłych i

centralnych.
Wartość oczekiwana ( inaczej nadzieja matematyczna, wartość przeciętna, wartość średnia)
jest to

liczba określona wzorem:

( )

( )

( ) ( )

=

R

i

i

i

C

dx

x

xf

SK

p

x

X

E

(3.1)

o ile szereg i całka są bezwzględnie zbieżne.

W piśmiennictwie wartość oczekiwaną zapisuje się EX, E[X] lub E(X). Przyjmiemy zapis

E(X).

Uwaga

W przypadku jeśli funkcja Y jest funkcją złożoną X tzn. Y = g(X) to wartość oczekiwaną

oblicz się ze wzoru:

( )

( )

[

]

( )

( )

( ) ( )

( )

=

=

R

i

i

i

C

dx

x

f

x

g

SK

p

x

g

X

g

Y

E

E

(3.2)

PRZYKŁAD 3.1

Dana jest zmienna losowa (SK) określona następująco (funkcja prawdopodobieństwa):

Zadanie

(

)



=

=

=

=

=

=

=

=

pozosta

ło

x

x

x

x

x

x

dla

x

X

P

i

0

4

;

3

;

5

;

4

;

1

;

2

6

1

6

5

4

3

2

1

Należy obliczyć wartość oczekiwaną zmiennej losowej X.

( )

(

)

6

1

4

3

5

4

1

2

6

1

E

6

1

=

+

+

=

=

=

i

i

i

p

x

X

Rozwiązanie

Wynik można interpretować następująco.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 14

Gramy w kości, jeśli wypadnie 1 to dostajemy 2 zł, jeśli wypadnie 2 to płacimy 1 zł, jeśli wypadnie 3 to

dostajemy 4zł, itd. W grę gramy bardzo długo. Pytanie jaka jest średnia wygrana przypadająca na grę?

(

)

6

1

6

4

3

5

4

1

2

6

=

=

+

+

n

n

n

n

PRZYKŁAD 3.2

Podamy analogi

ę mechaniczną do wartości oczekiwanej.

Zadanie

Pytanie:

Jakie jest położenie środka masy układu?

Masa układu wynosi

Rozwiązanie

=

i

i

m

M

,

Więc położenie środka ciężkości można wyznaczyć jako:

i

i

i

c

i

i

i

c

x

M

m

x

x

m

x

M

=

=

Wyrażenie

M

m

i

jest odpowiednikiem

i

p

, bo

1

=

i

i

M

m

Własności wartości oczekiwanej

Ponieważ wartość oczekiwana jest określana jako suma lub całka, to ma następujące

własności:

1) gdy

(

)

R

=

c

c

X

to

( ) ( )

c

c

X

=

= E

E

(3.3)


2)

Dla dowolnych stałych

n

i

a

i

,...

2

,

1

=

R

( )

i

n

i

i

n

i

i

i

X

a

X

a

E

E

1

1

=

=

=

(3.4)

Momentem zwykłym rzędu

Momenty zmiennej losowej

(

)

N

k

k

zmiennej losowej

X

nazywamy liczbę

( )

k

k

X

m

E

=

tzn.

( )

( ) ( )

=

C

dx

x

f

x

SK

p

x

m

R

k

i

i

k

i

k

(3.5)

j

eśli suma i całka istnieją

m

1

m

2

m

3

x

1

x

2

x

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 15

Dla

( )

( )

X

X

m

k

E

E

1

1

1

=

=

=

jest

momentem rzędu pierwszego. Jest widoczne, że moment

rzędu pierwszego jest wartością oczekiwaną. Czasem stosuje się oznaczenie

µ

=

1

m

.

Momentem centralnym

rzędu k zmiennej losowej X nazywamy liczbę:

( )

[

]

{

}

(

)

[

]

k

k

k

X

X

X

µ

µ

=

=

E

E

E

(3.6)

Moment centralny rzędu 2,

2

µ

nazywamy wariancją i oznaczamy

( )

X

2

D

, czasem

( )

X

Var

.

Pierwiastek kwadratowy z wariancji nazywany odchyleniem standardowym i oznaczamy

σ

.

( )

X

2

2

D

=

σ

lub

( )

X

2

D

=

σ

(3.7)

Można zauważyć, że:

( )

(

)

[

]

(

)

( )

( )

( )

2

1

2

2

2

2

2

2

2

2

E

E

2

E

2

E

E

D

m

m

X

X

X

X

X

X

k

=

+

=

=

+

=

=

=

=

µ

µ

µ

µ

µ

σ

µ

(3.8)

Własności wariancji:

1) Gdy

(

)

R

=

c

c

X

to

( )

( )

0

D

D

2

2

=

=

c

X

2)

Jeżeli c jest dowolną stałą to

( )

( )

X

c

cX

2

2

2

D

D

=

3)

Jeśli

R

c

to

(

)

( )

X

c

X

2

2

D

D

=

+

(przesunięcie)

(3.9)

Wariancja i odchylenie standardowe są miarą rozproszenia zmiennej losowej.

PRZYKŁAD 3.3

W teorii niezawodności i w teorii masowej obsługi stosuje się zmienne losowe o rozkładzie

wykładniczym. Są to zmienne losowe ciągłe o funkcji ciągłości określonej wzorem:

Zadanie

>

<

=

0

0

0

0

)

(

λ

λ

λ

i

x

e

x

x

f

x

Należy obliczyć wartość oczekiwaną i odchylenie standardowe zmiennej losowej o rozkładzie wykładniczym.

Rozwiązanie
Wartość oczekiwana

( )

( )

λ

λ

λ

λ

λ

λ

λ

λ

λ

1

1

lim

2

0

2

0

0

=

=





=

=

=

T

x

x

T

x

e

e

x

dx

xe

dx

x

xf

X

E

(całkowanie przez części)

bo:

f(x)

λ

x

0

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 16

x

x

x

x

x

x

e

e

x

dx

e

e

x

x

v

e

u

dx

xe

λ

λ

λ

λ

λ

λ

λ

λ

λ

λ

λ

=

=

=

=

=

2

1


Wariancja

( )

2

1

2

2

2

2

m

m

X

D

=

=

=

σ

µ

:

( )

( )

2

0

0

2

0

2

0

2

2

2

2

2

lim

λ

λ

λ

λ

λ

λ

λ

λ

=



+

=

=

=

=

dx

e

x

e

x

dx

e

x

dx

x

f

x

m

X

E

x

T

x

T

x

( )

2

2

2

2

1

2

2

2

2

1

1

2

λ

λ

λ

σ

µ

=

=

=

=

=

m

m

X

D

Kwantyle

Liczbę

(

)

1

0

<

< p

x

p

nazywamy kwantylem

rzędu p zmiennej losowej X, gdy spełnione

są następujące warunki:

(

)

p

x

X

p

P

oraz

(

)

p

x

X

p

1

P

(3.10)

Nierówności (3.10) nie wyznaczają kwantyli jednoznacznie. Jeżeli zmienna losowa jest

ciągła, to kwantyl rzędu p można wyznaczyć z równania:

( )

p

x

F

p

=

.

Kwantyl rzędu ½ nazywa się medianą, a k wan tyle rzęd u ¼ i ¾ n azywa się

kwartylami (czasem kwarty

lami rzędu 1 i 3).

Graficzna interpretacja kwantyli

Pole równe p tzn.

( )

(

)

p

p

x

X

P

p

x

F

=

=

Pole równe 1- p tzn.

(

)

p

x

X

P

Rysunek 3.1 Graficzna interpretacja kwantyli

f(x)

x

0

x

p

Pole równe p

Pole równe 1-p

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 17

4 Zmienne losowe wielowymiarowe.

4.1 Zmienna losowa dwuwymiarowa

Niech dana będzie trójka probabilistyczną (

,F,P). Zmienna losowa dwuwymiarowa (lub

inaczej dwuwymiarowy wektor losowy) jest to

uporządkowana para zmiennych losowych

(X,Y)

określona na przestrzeni zdarzeń elementarnych

2

:

)

,

(

R

Y

X

. Zmienne X, Y

nazywa się składowymi wektora losowego. Rozkład prawdopodobieństwa zmiennej
dwuwymiarowej (X,Y) nazywa si

ę łącznym rozkładem zmiennych losowych, a rozkłady

składowych wektora losowego nazywa się rozkładami brzegowymi.

Zwykle rozpatrujemy zmienne losowe typu skokowego

(dyskretne) i ciągłego.

Zmienna losowa dwuwymiarowa typu skokowego

Jest to zmienna taka, że wszystkie składowe są dyskretnymi zmiennymi losowymi tzn

funkcja prawdopodobieństwa jest określona wzorem:

( )

( )

]

,

)

,

[(

P

,

P

y

x

Y

X

y

x

=

=

.

(4.1)

Jeśli oznaczymy:

(

)

(

)

],

,

,

[

P

k

i

ij

y

x

Y

X

p

=

=

i,k=1,2,…

(4.2)

to funkcj

ę prawdopodobieństwa określa się wzorem:

( )

=

=

=

poza

y

y

i

x

x

p

y

x

j

i

ij

0

,

P

przy czym

1

=

ij

ij

p

(4.3)

Zmienna losowa dwuwymiarowa

typu ciągłego

Określa się ja na podstawie nieujemnej funkcji gęstości f(x,y) takiej, że:

( )

0

,

y

x

f

i

( )

1

,

2

=

∫∫

R

y

x

f

(4.4)


Dystrybuanta dwuwymiarowej zmiennej losowej jest to funkcja

1

,

0

:

2

R

F

taka, że:

{

}

)

,

(

P

)

)

(

,

)

(

:

(

P

)

,

(

y

Y

x

X

y

Y

x

X

y

x

F

<

<

=

<

<

=

ω

ω

ω

(4.5)

( )

}

{

}

{

( )

( )

( )




=

∫ ∫

∑ ∑

<

<

y

x

x

x

i

y

y

j

ij

C

dudv

v

u

f

SK

p

y

x

F

i

j

,

,

:

:

(4.6)

Dla zmiennej losowej typu

ciągłego zachodzą własności:

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 18

1.

(

)

( )

∫ ∫

=

d

c

b

a

dxdy

y

x

f

d

Y

c

b

X

a

,

,

P

2.

( )

( )

y

x

f

y

x

y

x

F

F

xy

,

,

2

=

=

tam, gdzie f(x,y)

ciągła

Rozkład brzegowy

Rozkłady brzegowe zmiennych losowych powstają gdy interesuje nas rozkład jednej ze

składowych wektora losowego.

Definicje dla zmiennej losowej skokowej:

(

)

=

=

=

j

ij

i

i

p

p

x

X

P

,

(

)

=

=

=

i

ij

j

j

p

p

y

Y

P

(4.7)

Dla dwuwymiarowej

zmiennej losowej (X,Y) typu ciągłego definiuje się rozkłady brzegowe

zmiennej

za pomocą brzegowych gęstości prawdopodobieństwa:

( )

( )

=

R

X

dy

y

x

f

x

f

,

(4.8)

analogicznie

( )

y

f

Y

:

( )

( )

=

R

Y

dx

y

x

f

y

f

,

(4.9)

PRZYKŁAD 4.1

Znaleźć rozkłady brzegowe zmiennej losowej dwuwymiarowej (SK) określonej poniższą tabelką.

Zadanie

Rozkłady brzegowe określono w ostatniej kolumnie i ostatnim wierszu tabeli.

Rozwiązanie

x

i

y

j

1

2

3

j

p

1

0

1/6

1/6

1/3

2

1/6

0

1/6

1/3

3

1/6

1/6

0

1/3

i

p

1/3

1/3

1/3

1

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 19

x

1

y

6

D

PRZYKŁAD 4.2

Zmienna losowa dwuwymiarowa ciągła określona jest funkcją:

Zadanie

( )

>

=

poza

y

x

dla

e

y

x

f

y

x

0

0

,

,

Znaleźć rozkłady brzegowe zmiennych X i Y.

( )

x

y

x

y

x

X

e

dy

e

e

dy

e

x

f

=

=

=

0

0

Rozwiązanie

oraz przez symetrię:

( )

y

y

x

Y

e

dx

e

y

f

=

=

0

PRZYKŁAD 4.3

Dwuwymiarowa

zmienna losowa ciągła ma funkcję gęstości:

Zadanie

( )



=

poza

D

y

x

dla

y

x

y

x

f

0

,

6

1

,

Należy wyznaczyć funkcje brzegowych gęstości prawdopodobieństwa:

Opis obszaru:

Rozwiązanie

( )

(

)

{

}

x

y

i

x

y

x

D

1

6

0

1

0

:

,

:

albo

( )

{

}

6

1

0

6

0

:

,

:

y

x

i

y

y

x

D

Obliczenie rozkładów brzegowych:

( )

(

)

(

)

(

)

(

)

(

)

[

]

(

)

(

)

(

)

2

1

6

0

2

1

6
0

1

6

0

1

6

0

1

6

0

1

3

12

1

6

1

6

1

x

y

y

x

dy

y

dy

x

dy

y

x

x

f

x

x

x

x

x

X

=

=

=

=

( )

2

6

1

0

2

6

1

0

6

1

2

1

2

6

1

6

1

 −

=

 −

=

=

y

x

x

y

dx

y

x

y

f

y

y

Y

Wykresy rozkładów brzegowych:

x

1

y

6

f

Y

(y)

f

X

(x)

3

½

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 20

Rozkłady warunkowe zmiennych losowych

Są to rozkłady jednych ze składowych wektora losowego pod warunkiem, że druga przyjęła

określoną wartość.

Dla zmiennej losowej skokowej

(

)

(

)

0

|

P

0

|

P

>

=

=

=

>

=

=

=

i

i

ij

i

j

j

j

ij

j

i

p

gdzie

p

p

x

X

y

Y

p

gdzie

p

p

y

Y

x

X

(4.10)

Dla zmiennej losowej ciągłej

(

)

(

)

( )

( )

(

)

(

)

( )

( )

0

,

|

0

,

|

0

0

0

0

0

0

0

0

>

=

=

>

=

=

x

f

x

f

y

x

f

x

X

y

f

y

f

y

f

y

x

f

y

Y

x

f

X

X

X

Y

Y

X

(4.11)

PRZYKŁAD 4.4

Wyznaczyć prawdopodobieństwa warunkowe P(X=x

i

|Y=y

i

)

dla zmiennych losowych z przykładu

Zadanie

4.1.

Rozwiązanie

x

i

y

i

1

2

3

1

0

1/2

1/2

2

1/2

0

1/2

3

1/2

1/2

0

Bo np.

(

)

0

|

1

11

1

1

=

=

=

=

p

p

y

Y

x

X

P

(

)

2

1

|

1

21

1

2

=

=

=

=

p

p

x

X

y

Y

P

Zmienne losowe są niezależne (NZ) wtedy, gdy:

Niezależność zmiennych losowych

(

)

(

)

(

)

j

i

j

i

j

i

j

i

p

p

y

Y

x

X

y

Y

x

X

=

=

=

=

=

=

P

P

,

P

(SK)

( )

( ) ( )

y

f

x

f

y

x

f

Y

X

y

x

=

,

(C)

(4.12)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 21

PRZYKŁAD 4.5

Zbadać niezależność zmiennych losowych z przykładu

Zadanie

4.1.

Zmienne losowe nie są niezależne, bo np. dla i=j=2 mamy:

Rozwiązanie

0

22

=

p

3

1

;

3

1

2

2

=

=

p

p

22

2

2

0

9

1

3

1

3

1

p

p

p

=

=

=

PRZYKŁAD 4.6

Do

danych z przykładu

Zadanie

4.3

sprawdzić, czy zmienne losowe są niezależne.

Sprawdźmy dla

Rozwiązanie

2

1

=

x

i

1

=

y

3

1

6

1

2

1

1

1

,

2

1

=

=

f

( )

72

25

1

;

4

3

2

1

=

=

Y

X

f

f

( )

3

1

72

25

4

3

1

2

1

=

Y

X

f

f

Czyli:

( )

=

=

1

,

2

1

1

2

1

1

2

1

f

f

f

Y

X

y

x

Charakterystyki liczbowe zmiennej losowej dwuwymiarowej

Moment zwykły rzędu (k,l) oznaczany symbolem

kl

m

,

gdzie

N

l

k

,

dwuwymiarowej

zmiennej (X,Y)

jest to liczba określona wzorem:

( )

( )

( )

( )

( )

=

=

∑∑

C

dxdy

y

x

f

y

x

SK

p

y

x

Y

X

m

R

l

k

i

j

ij

l

j

k

i

l

k

kl

2

,

)

(

E

jeśli szereg i całka są zbieżne

(4.13)

Łatwo zauważyć, że momenty zwykłe rzędu (1,0) oraz (0,1) są to średnie rozkładów
brzegowych

Y

X

m

m

µ

µ

=

=

01

10

gdzie

X

µ

-

średnia rozkładu brzegowego zmiennej X i

Y

µ

to

średnia rozkładu brzegowego

zmiennej Y.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 22

Moment centralny

Moment centralny

rzędu (k,l) gdzie

N

l

k

,

jest to liczba określona następująco:

(

) (

)

[

]

l

k

kl

m

Y

m

X

01

10

E

=

µ

(4.14)

Momenty centralne

rzędu (2,0) i (0,2) są to wariancje

Uwaga

2

2

,

Y

X

σ

σ

rozkładów brzegowych

zmiennych losowych X i Y.

Moment centralny rzędu (1,1) nazywa się kowariancją zmiennych losowych X i Y i oznacza
Cov(X,Y) tzn:

Kowariancja

i współczynnik korelacji

(

)(

)

[

]

01

10

11

E

)

,

(

Cov

m

Y

m

X

Y

X

=

=

µ

(4.15)


Kowariancję można przedstawić jako funkcję momentów zwykłych:

(

)(

)

[

]

)

(

)

(

E

)

(

E

)

E(

E

)

,

(

Cov

01

10

11

01

10

10

01

01

10

Y

E

X

XY

m

m

m

m

m

Y

m

Xm

XY

m

Y

m

X

Y

X

=

=

=

+

=

=

(4.16)

W wyprowadzeniu powyższych zależności wykorzystano własności wartości oczekiwanej.

Zauważmy, że:

X

X

X

2

D

)

,

(

Cov

=

(4.17)


Prawdziwe jest następujące twierdzenie
Jeśli zmienne losowe są niezależne to E(XY)=E(X)E(Y) oraz

:

0

)

,

(

Cov

=

Y

X

.

Ale twierdzenie odwrotne nie jes

t prawdziwe. Ilustruje to poniższy przykład.

PRZYKŁAD 4.7

Dana jest dwuwymiarowa zmienna losowa typu skokowego, której rozkład łączny opisany jest tabelką:

x

i

y

j

6

8

10

j

p

1

0.2

0

0.2

0.4

2

0

0.2

0

0.2

3

0.2

0

0.2

0.4

i

p

0.4

0.2

0.4

1

Obliczymy kowariancję. Kolejno:

∑∑

=

=

=

=

3

1

3

1

11

16

i

j

ij

j

i

p

y

x

m

8

4

.

0

10

2

.

0

8

4

.

0

6

)

(

E

3

1

10

=

+

+

=

=

=

=

i

i

i

p

x

X

m

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 23

2

4

.

0

3

2

.

0

2

4

.

0

1

)

(

E

3

1

01

=

+

+

=

=

=

=

j

j

j

p

y

Y

m

Zatem:

0

8

2

16

)

,

(

Cov

01

10

11

=

=

=

m

m

m

Y

X

.

Ale zmienne nie są niezależne bo np.:

0

21

=

p

oraz

4

.

0

2

.

0

1

2

=

=

p

i

p

.

Jest widoczne, że

1

2

21

p

p

p

Współczynnikiem korelacji zmiennych losowych X i Y oznaczanym ρ

albo

XY

ρ

nazywamy

liczbę:

Y

X

02

20

11

)

,

(

Cov

σ

σ

µ

µ

µ

ρ

Y

X

=

=

(4.18)

Czasem w

rachunku prawdopodobieństwa wprowadza się pojęcie zmiennych

standaryzowanych zdefiniowanych wzorem:

X

X

X

X

σ

µ

=

~

,

Y

Y

Y

Y

σ

µ

=

~

(4.19)

Współczynnik korelacji można zdefiniować przy powyższych oznaczeniach następująco:

)

~

,

~

(

Cov

)

,

(

Cov

Y

X

Y

X

Y

X

=

=

σ

σ

ρ

(4.20)

Rysunek 4.1

Przykładowe realizacje wektorów losowych dwuwymiarowych (X,Y) przy

rożnych wartościach współczynnika korelacji pomiędzy składowymi.


Współczynnik korelacji ma następujące własności:

1

ρ

(o ile istnieje)

x

1

=

ρ

y

x

0

1

<

<

ρ

y

x

1

0

<

<

ρ

y

x

1

=

ρ

y

0

=

ρ

y

x

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 24

1

=

ρ

wtedy i tylko wtedy gdy

1

)

(

P

=

+

=

b

aX

Y

Z drugiej zależności wynika, że współczynnik korelacji może służyć jako miara liniowej

zależności zmiennych losowych X i Y.

Znaczenie w

artości bezwzględnej i znaku współczynnika korelacji ilustruje rys. 4.1.

Mówimy, że zmienne losowe są nieskorelowane jeśli

0

=

ρ

oraz, że są skorelowane

w przeciwnym przypadku (o

czywiście to, że zmienne są nieskorelowane nie oznacza jeszcze,

że są niezależne).
Jeśli zmienne losowa Y jest funkcją liniową zmiennej X to prostą o równaniu:

b

ax

y

+

=

(4.21)

nazywamy

prostą regresji.

Jeśli nie jest spełniony warunek

1

=

ρ

to znaczy, że nie zachodzi równość

1

)

(

P

=

+

=

b

aX

Y

to często szukamy takiej funkcji liniowej aby prawdopodobieństwo

)

(

P

b

aX

Y

+

=

było

możliwie duże. Zazwyczaj przyjmuje się jako kryterium tzw. oczekiwany kwadratowy błąd
aproksymacji:

]

)

-

-

E[(

2

b

aX

Y

e

=

(4.22)

Wartości a i b, dla których e jest minimalne wyznaczają prostą nazywaną prostą regresji II
rodzaju
.
Można pokazać, że współczynnik korelacji jest miarą dokładności, z jaką jedną zmienną

losową Y można aproksymować przez liniową funkcję innej zmiennej losowej, której

współczynniki dobrano tak, aby błąd e był minimalny. Jeśli

0

=

ρ

to błąd ten jest największy,

je

śli natomiast

1

=

ρ

to jest najmniejszy.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 25

5

Typowe rozkłady zmiennych losowych

5.1

Rozkłady dyskretne

5.1.1

Rozkład dwupunktowy

Zmienna losowa X ma

rozkład dwupunktowy, gdy jej funkcja prawdopodobieństwa jest

określona wzorem:

(

)

=

=

=

=

=

poza

x

x

dla

p

q

x

x

dla

p

x

X

i

0

1

P

2

1

.

(5.1)

Można łatwo pokazać, że dla zmiennej losowej o rozkładzie dwupunktowym średnia
i

wariancja są równe:

pq

x

x

X

q

x

p

x

X

2

1

2

2

2

1

)

(

)

(

D

)

(

E

=

+

=

(5.2)

PRZYKŁAD 5.1

Wyprowadzić wzory (5.2).

Zgodnie z definicją:

Rozwiązanie:

pq

x

x

q

px

x

q

q

x

p

p

x

q

px

x

q

x

p

x

q

x

p

x

q

x

p

x

q

x

p

x

m

m

X

q

x

p

x

m

q

x

p

x

X

2

1

2

2

1

2

2

2

1

2

1

2

2

2

2

2

1

2

2

2

1

2

2

1

2

2

2

1

2

1

2

2

2

2

2

1

2

2

1

1

)

(

2

)

1

(

)

1

(

2

)

(

)

(

D

)

(

E

m

=

+

=

=

+

=

+

+

=

=

+

=

+

=

=

(a)

Gdyby

w szczególności

1

1

=

x

i

0

2

=

x

to:

p

X

=

)

(

E

oraz

pq

X

=

)

(

D

2

(b)

W przypadku gdy x

1

=1 i x

2

=0

podany rozkład nazywa się rozkładem zerojedynkowym i dla

takiego rozkładu (jak pokazano w przykładzie 5.1:

)

1

(

)

(

D

)

(

E

2

p

p

pq

X

p

X

=

=

=

(5.3)

5.1.2

Rozkład dwumianowy

Zmienna typu dyskretnego ma

rozkład dwumianowy z parametrami n i p (nazywany także

rozkładem Bernoulliego) jeśli jej funkcja rozkładu ma postać:

(

)

1

0

,

0

,

,

1

,

0

P

=

+

>

=





=

=

q

p

oraz

q

p

gdzie

poza

n

i

dla

q

p

i

n

i

X

i

n

i

(5.4)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 26

Średnia i wariancja dla tego rozkładu są równe:

npq

X

np

X

=

=

)

(

D

)

(

E

2

(5.5)


Wartości funkcji (5.4) oraz dystrybuanty:

<

=

=

)

(

:

)

(

P

)

(

k

i

i

i

X

k

F

(5.6)

można znaleźć bezpośrednio albo z odpowiednich tablic.
W tablicach często podaje się tzw. ogon dystrybuanty:

=





=

=

=

=

)

(

:

)

(

P

)

(

1

)

(

Q

k

i

i

n

k

i

i

n

i

q

p

i

n

i

X

k

F

k

(5.7)

Na rysunku 5.1

pokazano funkcję prawdopodobieństwa rozkładu dwumianowego

odpowiednio dla p=0.1 i n=20 (rys. 5.1a) oraz p=0.5 i n=20 (rys. 5.1b)

Zmienną losową o rozkładzie dwumianowym można interpretować jako liczbę sukcesów

(jedynek) w ciągu niezależnych doświadczeń zwanych próbami Bernoulliego, w których

prawdopodobieństwo sukcesu (jedynki) jest równe p a prawdopodobieństwo porażki (zera)
jest równe q=1-p. Zmienna losowa dwumianowa ma liczne zastosowania techniczne. Jednym
z nich jest kontrola

wyrywkowa produktu, którego poszczególne próbki kwalifikuje się jako

dobre albo niedobre. Z populacji o

liczności N wybiera się próbkę liczności n, sprawdza się

wszystkie sztuki w

próbce i liczy się ile było sztuk niedobrych. Jeśli spełnione są następujące

założenia:

wybór do próbki pewnej sztuki nie zależy ani od tego czy sztuka jest dobra czy zła,

• wybór n

ie zależy od tego jakie sztuki wybrano poprzednio,

prawdopodobieństwo wyboru sztuki niedobrej nie zmienia się wraz z wyborem

(praktycznie jest tak wtedy jeśli liczność próbki jest dużo mniejsza od liczności
populacji).

a)

b)

0

1

2

3

4

5

6

7

8

9

10

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

i

P

p=0.1 n=20

0

2

4

6

8

10

12

14

16

18

20

0

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

i

P

n=20 p=0.5

Rysunek 5.1

Funkcja prawdopodobieństwa rozkładu dwumianowego a) dla n=20 i p=0.1

b) n=20 p=0.5

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 27

PRZYKŁAD 5.2

Energia pochodząca z określonego źródła ma być z przerwami zużywana przez pięciu robotników. Aby

otrzymać oszacowanie zapotrzebowania na energię zakładamy, że w danej chwili prawdopodobieństwo p

zapotrzebowania na energię jest takie samo dla każdego z robotników, robotnicy pracują niezależnie od siebie

oraz każdy z robotników korzysta z energii przez 12 minut na godzinę.

Niech X oznacza liczbę robotników korzystających z energii w danej chwili. Znaleźć rozkład zmiennej X

Obliczyć prawdopodobieństwo, że liczba robotników korzystających z energii w danej chwili jest nie większa

niż 2.

X ma rozkład dwumianowy z parametrami n=5 i p=12/60=0.2. W takim razie:

Rozwiązanie

33

.

0

8

.

0

)

0

(

5

=

=

X

P

(a)

41

.

0

2

.

0

8

.

0

5

)

1

(

4

=

=

X

P

20

.

0

2

.

0

8

.

0

10

)

2

(

2

3

=

=

X

P

Prawdopodobieństwo, że liczba robotników korzystających z energii w danej chwili jest nie większa niż 2 jest

równa sumie prawdopodobieństw:

94

.

0

)

2

(

)

1

(

)

0

(

=

+

=

+

=

X

P

X

P

X

P

(b)

5.1.3

Rozkład Poissona

Zmienna

losowa ma rozkład Poissona (na cześć francuskiego matematyka Simeona Denisa

Poissona (1781-

1840) z parametrem c gdy jej funkcja rozkładu dana jest wzorem:

(

)

0

0

,

1

,

0

!

P

>



=

=

=

c

gdzie

poza

i

dla

e

i

c

i

X

c

i

(5.8)

Jest to zmienna o przeliczalnej liczbie wartości. Średnia i wariancja dla tego rozkładu są
równe:

c

X

c

X

=

=

)

(

D

)

(

E

2

(5.9)

Dystrybuanta ma postać:

c

k

i

i

k

i

i

e

i

c

i

X

k

F

=

<

=

=

=

1

0

)

(

:

!

)

(

P

)

(

(5.10)

W tablicach często podaje się tzw. ogon dystrybuanty:

)

(

1

)

(

Q

k

F

k

=

(5.11)

Wykażemy teraz jaki związek ma rozkład Poissona z rozkładem dwumianowym.

Przypuśćmy, że zmienne losowe

,

,

2

1

X

X

mają rozkład dwumianowy z parametrami

odpowiednio n i

n

c

p

/

=

. Można udowodnić, że ciąg funkcji prawdopodobieństwa:

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 28

i

n

i

i

n

i

n

n

c

n

c

i

n

q

p

i

n

i

 −





=





==

1

)

(

P

(5.12)

d

ąży dla każdego

,

1

,

0

=

i

do funkcji:

c

i

e

i

c

i

=

!

)

(

P

(5.13)

gdy

n

(i tym samym

0

p

).

A zatem zgodnie z powyższą uwagą można dla dużych n i małych p przybliżać dystrybuantę

rozkładu dwumianowego przez dystrybuantę rozkładu Poissona. Innymi słowy rozkład

Poissona jest asymptotyczną postacią rozkładu dwumianowego.

Powyższa własność pozwala na korzystanie z rozkładu Poissona w analogicznych

przypadkach, w jakich korzysta się z rozkładu dwumianowego, ale wtedy, gdy n jest

dostatecznie duże (orientacyjnie

50

n

) i p

dostatecznie małe (orientacyjnie p<0.1).

Na rysunku 5.2

pokazano funkcję prawdopodobieństwa rozkładu Poissona dla n=20 i c=10.

Czytelni

k zechce porównać przedstawiony wykres z wykresem funkcji prawdopodobieństwa

na rys. 5.1b (Parametr c=np

dla rozkładu dwumianowego).

0

2

4

6

8

10

12

14

16

18

20

0

0.02

0.04

0.06

0.08

0.1

0.12

0.14

i

P

n=20 c=10

Rysunek 5.2

Funkcja prawdopodobieństwa rozkładu Poissona dla n=20 i c=10

PRZYKŁAD 5.3


5.2

Rozkłady zmiennych typu ciągłego

Przedstawimy

tutaj kilka najczęściej spotykanych rozkładów zmiennych losowych typu

ciągłego. Dwa ostatnie rozkłady przedstawione w tym rozdziale – rozkład chi-kwadrat

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 29

(

rozkład

2

χ ) oraz rozkład t-Studenta znajdują przede wszystkim zastosowanie w statystyce

matematycznej.

5.2.1

Rozkład jednostajny

Zmienna losowa t

ypu ciągłego ma rozkład jednostajny (inaczej prostokątny, równomierny)

w

przedziale <a,b> jeśli jego funkcja gęstości określona jest wzorem:

(

)




>

<

=

=

b

x

dla

b

x

a

dla

a

b

a

x

dla

i

X

0

1

0

P

(5.14)

Średnia i wariancja dla tego rozkładu są równe:

12

)

(

)

(

D

2

)

(

E

2

2

a

b

X

b

a

X

=

+

=

(5.15)

PRZYKŁAD 5.4

Wyprowadzić wzór na wariancję (5.15) dla zmiennej losowej o rozkładzie jednostajnym.

Obliczymy

najpierw momenty zwykłe rzędu pierwszego (wartość oczekiwaną) i drugiego.

Rozwiązanie:

3

3

1

3

1

2

2

1

2

1

)

(

E

2

2

3

3

3

2

2

2

2

2

1

b

ab

a

a

b

a

b

x

a

b

dx

a

b

x

m

b

a

a

b

a

b

x

a

b

dx

a

b

x

X

m

b

a

b

a

b

a

b

a

+

+

=

=

=

=

+

=

=

=

=

=

Wariancję można obliczyć wykorzystując wzór (3.8).

12

)

(

2

3

)

(

D

2

2

2

2

2

1

2

2

a

b

b

a

b

ab

a

m

m

X

=

 +

+

+

=

=

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 30

0

2

4

6

8

10

0

0.05

0.1

0.15

0.2

0.25

0.3

x

f(

x)

Rysunek 5.3

Funkcje gęstości rozkładu jednostajnego (dla a=2 i b=8)

5.2.2

Rozkład normalny

Zmienna losowa typu ciągłego ma rozkład normalny (zwany także rozkładem Gaussa) jeśli
jego f

unkcja gęstości określona jest wzorem:

( )

0

2

1

2

2

2

/

)

(

>

=

σ

π

σ

σ

µ

x

e

x

f

(5.16)

Średnia i wariancja dla tego rozkładu są równe:

2

2

)

(

D

)

(

E

σ

µ

=

=

X

X

(5.17)

gdzie

µ jest średnią a

σ

odchyleniem standardowym.

-8

-6

-4

-2

0

2

4

6

8

10

12

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

y

f(y

)

sig=1
sig=2
sig=4

Rysunek 5.4

Funkcje gęstości rozkładu normalnego N(2,1), N(2,2), N(2,4)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 31

Wykres funkcji (5.16) dla

średniej

2

=

µ

pokazano na rys. 5.4.

Popularnym i łatwo

zrozumiałym skrótem dla zmiennej o rozkładzie normalnym jest N(

)

,

σ

µ

. Rozkład normalny

ma duże znaczenie teoretyczne ponieważ można dowieść (będzie mowa o tym w dalszej

części skryptu), że rozkład sum różnych zmiennych losowych dąży, do przy bardzo słabych

warunkach, do rozkładu normalnego, gdy liczba składników rośnie nieograniczenie.
Należy zauważyć, że funkcja gęstości jest funkcją symetryczna względem prostej o równaniu

µ

=

x

to znaczy prostej

prostopadłej do osi x i przechodzącej przez punkt o odciętej równej

µ tzn:

)

(

)

(

µ

µ

+

=

x

f

x

f

(5.18)

Gęstość osiąga maksimum dla

µ

=

x

równe:

σ

π

σ

4

.

0

2

1

(5.19)

Podobnie dla dystrybuanty zmiennej losowej o rozkładzie normalnym spełniony jest warunek:

1

)

(

)

(

=

+

+

µ

µ

x

F

x

F

(5.20)

Wartości dystrybuanty rozkładu normalnego najczęściej odczytuje się z tablic. Przed

odczytem z tablic zmienną losową przekształca się na najpierw do postaci zmiennej
standaryzowanej (por. wzór (4.19)) poprzez podstawienie:

σ

µ

=

X

Y

(5.21)

Jak wiadomo zmienna standaryzowana ma średnią 0 i odchylenie standardowe równe 1.
Zmienna (5.21)

ma zatem rozkład normalny N(

)

1

,

0

. Gęstość tego rozkładu ma postać:

( )

2

/

2

2

1

y

e

y

=

π

ϕ

(5.22)

Dystrybuantę zmiennej losowej Y oznacza się zwykle

Φ

. Podstawienie (5.21) wykorzystuje

się przy odczycie z tablic wartości dystrybuanty zmiennej o rozkładzie normalnym.

Pokażemy to na przykładach.

PRZYKŁAD 5.5

Niech zmienna losowa X ma rozkład N(47,2). Należy znaleźć P(X<44.5)

Możemy zapisać ciąg przekształceń pamiętając, że z tablic możemy odczytać wartości dystrybuanty jedynie dla

rozkładu N(0,1).

Rozwiązanie:

Zgodnie z definicją:

(

)

25

.

1

P

2

47

5

.

44

2

47

P

)

5

.

44

(

P

<

=

<

=

<

Y

X

X

(a)

Ponieważ zmienna Y więc poszukiwane prawdopodobieństwo jest równe

).

25

.

1

(

Φ

W tablicach znajdują się

wartości dystrybuanty dla współrzędnych dodatnich więc nie możemy odczytać powyższej wartości

bezpośrednio. Biorąc jednak pod uwagę wzór (5.20) dla zmiennej o rozkładzie N(0,1) otrzymujemy:

)

(

1

)

(

1

)

(

)

(

x

x

x

x

Φ

=

Φ

=

Φ

+

Φ

(b)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 32

Dla danych zadania:

)

25

.

1

(

1

)

25

.

1

(

Φ

=

Φ

(c)

Z tablic odczytujemy

89430

.

0

)

25

.

1

(

=

Φ

. Ostatecznie:

106

.

0

89430

.

0

1

)

25

.

1

(

1

)

5

.

44

(

=

Φ

=

<

X

P

(d)

PRZYKŁAD 5.6
Z

mienna losowa X ma rozkład N(47,2). Należy znaleźć P(44.5<X<48)

Wykonujemy ciąg przekształceń podobnie jak w przykładzie

Rozwiązanie:

(5.4) i otrzymujemy:

(

)

)

25

.

1

(

)

5

.

0

(

5

.

0

25

.

1

P

2

47

48

2

47

2

47

5

.

44

P

)

48

5

.

44

(

P

Φ

Φ

=

<

<

=

<

<

=

<

<

Y

X

X

(a)

Wartości dystrybuant odczytujemy z tablic wykonując po drodze przekształcenie (c) z przykładu (5.4)

10565

.

0

)

25

.

1

(

=

Φ

oraz

69146

.

0

)

5

.

0

(

=

Φ

586

.

0

105650

.

0

69146

.

0

)

25

.

1

(

)

5

.

0

(

)

48

5

.

44

(

P

=

=

Φ

Φ

=

<

< X

(b)

PRZYKŁAD 5.7

Należy znaleźć taką wartość x, że P(X<x)=0.95

Dokonuje

my przekształcenia jak w powyższych przykładach:

Rozwiązanie:

95

.

0

)

2

47

(

2

47

2

47

P

)

(

P

=

Φ

=

<

=

<

x

x

X

x

X

(a)

Oznacza to, że liczba

2

47

x

jest kwantylem rządu 0.95 zmiennej losowej N(0,1) (porównaj wzór (3.10) i

rysunek

3.1

.

Z tablic odczytujemy, że kwantyl rzędu 0.95 rozkładu N(0,1) jest równy 1.644854. W takim razie:

50.3

x

zatem

,

644854

.

1

2

47

=

=

x

(b)

5.2.3

Rozkład chi-kwadrat

W statystyce mamy często do czynienia z ciągami niezależnych zmiennych losowych

,

,

2

1

X

X

o jednakowych rozkładach. Duże znaczenie maja zmienne losowe będące sumą

takich zmiennych losowych.
Rozkładem

2

χ o r stopniach swobody nazywamy rozkład zmiennej losowej, która jest sumą

r

niezależnych zmiennych losowych X

i

, z których każda ma standardowy rozkład normalny

N(0,1):

=

=

r

i

i

X

Y

1

2

(5.23)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 33

Można pokazać, że funkcja gęstości zmiennej losowej (5.23) ma postać:



Γ

=

tym

poza

e

x

r

x

dla

x

f

y

r

r

r

2

/

1

2

/

2

/

)

2

/

(

2

1

0

0

)

(

(5.24)

Parametr r

występujący we wzorze (5.24) nazywa się liczbą stopni swobody natomiast symbol

Γ przedstawia

tzw. funkcję Eulera (nie będziemy tutaj przedstawiać jej definicji –

zainteresowany czytelnik może znaleźć ją w licznych podręcznikach). Na rys. 5.5
przedstawiono wykres funkcji gęstości rozkładu

2

χ dla różnych liczb stopni swobody.

Dla r

=1 zmienna losowa o rozkładzie

2

χ jest kwadratem pojedynczej zmiennej losowej

o

rozkładzie N(0,1). Średnia i wariancja dla tego rozkładu z r stopniami swobody są równe:

r

r

2

)

(

D

)

(

E

2

2

2

=

=

χ

χ

(5.25)

Tablica dystrybuant zmiennej losowej o rozkładzie

2

χ podaje wartości:

)

(

)

(

F

x

P

x

r

r

<

=

χ

(5.26)

Wynika stąd, że wartości dystrybuanty odczytuje się w funkcji bieżącej zmiennej x oraz
liczby stopni swobody r.

0

5

10

15

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

y

f(y

)

r=1
r=2
r=6

Rysunek 5.5

Funkcje gęstości rozkładu

2

χ dla różnych liczb stopni swobody r.

W zastosowaniach ważne jest wyznaczenie kwantyli rozkładu

2

χ . W niektórych tablicach

wartości kwantyli rozkładu

2

χ podane są wprost natomiast w innych podaje się wartości tzw.

wartości krytycznych

)

,

(

2

r

α

χ

. Wartości krytyczne definiuje się wzorem:

α

α

χ

χ

=

>

)]

,

(

[

P

r

r

(5.27)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 34

Z definicji (5.27)

wynika, że wartość krytyczna

)

,

(

2

r

α

χ

jest kwantylem rzędu

α

1

rozkładu

2

χ o r stopniach swobody.

5.2.4

Rozkład t Studenta

Niech dany będzie ciąg niezależnych zmiennych losowych

n

X

X

X

,

,

,

2

1

o jednakowym

rozkładzie normalnym

)

,

(

σ

µ

N

.

Tworzymy funkcję zmiennych losowych:

=

=

n

i

i

X

n

X

1

1

=

=

n

i

i

X

X

n

S

1

2

2

)

(

1

(5.28)

oraz zmienną losową:

1

=

n

S

X

t

µ

(5.29)

Można dowieść, że zmienna losowa t ma funkcję gęstości określoną wzorem:

2

1

2

1

2

2

1

1

)

(

+





+

Γ

 +

Γ

=

r

r

r

t

r

r

r

t

f

π

(5.30)

gdzie

Γ przedstawia

funkcję Eulera. Rozkład zmiennej losowej zdefiniowanej powyżej

nazywa się rozkładem t Studenta. Można udowodnić, że wykres gęstości zmiennej t jest
symetryczny

względem osi rzędnych. Zmienna ta jest asymptotycznie normalna tzn. gęstość

określona wzorem (5.30) dąży do gęstości rozkładu normalnego

)

1

,

0

(

N

gdy liczba stopni

swobody wzrasta nieograniczenie.

Można to zapisać równaniem:

2

/

2

2

1

)

(

lim

t

r

r

e

t

f

=

π

(5.31)

Zbieżność ta jest szybka. Na rysunku 5.6 pokazano wykres gęstości rozkładu t Studenta dla
r=7 stopni swobody

oraz rozkładu normalnego N(0,1). Jak widać przebieg obu krzywych jest

zbliżony.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 35

-4

-3

-2

-1

0

1

2

3

4

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

t

f(

t)

t Student r=7
N(0,1)

Rysunek 5.6

Funkcja gęstości dla rozkładu t Studenta dla r=7 stopni swobody i rozkład

normalny N(0,1).

Gęstość rozkładu Studenta bywa rzadko wykorzystywana w praktyce. Najczęściej operuje się

wartością krytyczną t(p,r). Wartość krytyczna rozkładu t Studenta jest to liczba t(p,r)
zdefiniowana wzorem:

[

]

p

r

p

t

t

P

r

=

>

)

,

(

(5.32)

Z definicji (5.32)

wynika, że wartość krytyczna t(p,r) jest kwantylem rzędu 1-p/2 rozkładu

Studenta o r stopniach swobody

. Ponieważ rozkład t Studenta może być dla dużych r

aproksymowany rozkładem normalnym to w obliczeniach praktycznych często zamiast tablic

rozkładu Studenta używa się tablic rozkładu N(0,1) (zwykle przy liczbie stopni swobody

przewyższającej 20).

5.3

Addytywność rodziny zmiennych losowych.


Mówimy, że rodzina zmiennych losowych jest addytywna, jeśli suma niezależnych

zmiennych losowych należących do tej rodziny także należy do tej rodziny. Badanie

addytywności wymaga wprowadzenia nowego pojęcia tzw. funkcji charakterystycznych

czego jednak robić nie będziemy.
Można wskazać przykład rodzin zmiennych losowych addytywnych. Na przykład rodzina

niezależnych zmiennych losowych o rozkładzie dwumianowym, jest addytywna. Jeśli

zmienne losowe o takim rozkładzie mają parametry n

i

(mogą być różne) oraz p (jednakowe

dla wszystkich składników) to suma takich zmiennych ma także rozkład dwumianowy
z parametrami

i

i

p

n

)

,

(

. Podobnie

addytywna jest rodzina niezależnych zmiennych

o

rozkładzie Poissona. Suma k takich zmiennych z parametrami c

i

(i=1,2,…,k

) ma rozkład

Poissona z parametrem

i

i

c (

parametry te nie muszą być jednakowe).

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 36

Szczególne własności ma rodzina niezależnych zmiennych losowych o rozkładach

normalnych. Jeśli bowiem zmienna losowa X

i

(i=1,2,…,n)

ma rozkład

)

,

(

i

i

N

σ

µ

to zmienna

losowa postaci

=

=

n

i

i

i

X

k

X

1

ma

rozkład normalny z parametrami

( )

)

,

(

1

2

1

=

=

n

i

i

i

n

i

i

i

k

k

N

σ

µ

W szczególnym przypadku, jeśli zmienne losowe mają rozkłady

)

,

(

:

1

1

1

σ

µ

N

X

oraz

)

,

(

:

2

2

2

σ

µ

N

X

to suma i ró

żnica zmiennych mają odpowiednio rozkłady:

)

,

(

:

2

2

2

1

2

1

2

1

σ

σ

µ

µ

+

+

+

N

X

X

(5.33)

)

,

(

:

2

2

2

1

2

1

2

1

σ

σ

µ

µ

+

N

X

X

(5.34)

PRZYKŁAD 5.8

Średnica wałka i średnica otworu są niezależnymi zmiennymi losowymi normalnymi, z jednakowymi

odchyleniami standardowymi równymi 0.02. Średnia różnica średnic jest równa 0.06. Jakie jest

prawdopodobieństwo, że wałek nie wejdzie do otworu ?

Średnica otworu X:

Rozwiązanie:

)

02

.

0

,

(d

N

,

średnica wałka Y:

)

02

.

0

,

06

.

0

(

d

N

. L=X-

Y ma rozkład z parametrami

)

0282

.

0

,

06

.

0

(

)

02

.

0

02

.

0

,

06

.

0

(

:

2

2

N

N

L

=

+

017

.

0

983

.

0

1

13

.

2

0282

.

0

06

.

0

P

0282

.

0

06

.

0

0

0282

.

0

06

.

0

P

)

0

(

P

=

=

<

=

<

=

<

L

L

L

(a)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 37

6 Twierdzenia graniczne

6.1

Nierówność Czebyszewa

Nierówność Czebyszewa daje ilościowe oszacowanie zjawiska polegającego na grupowaniu

się wartości zmiennej losowej wokół jej wartości oczekiwanej.

Jeżeli X jest zmienna losową mającą skończona wartość oczekiwaną µ i wariancję

0

2

>

σ

to dla dowolnego t>0 zachodzi nierówność:

2

1

)

-

X

P(

t

t

σ

µ

(6.1)


Nierówność Czebyszewa obejmuje rozkłady wszystkich typów o ile spełniają wspomniane
w

twierdzeniu bardzo ogólne założenia.

Dla rozkładów ciągłych, których gęstość prawdopodobieństwa ma tylko jedno maksimum

lokalna (rozkłady jednomodalne) i jest symetryczna, zachodzi (przy dodatkowych

informacjach o rozkładzie zmiennej losowej) lepsze oszacowanie Gaussa:

2

9

4

)

-

X

P(

t

t

σ

µ

(6.2)


W praktyce mamy do czynienia na ogół ze zmiennymi losowymi, które za bardzo małym
prawdopodobieństwem przyjmują wartości spoza przedziału

σ

µ

σ

µ

3

,

3

-

+

. Dlatego, gdy

nieznany jest rozkład zmiennej losowej, a znane są tylko parametry jej rozkładu µ i σ ,
pomija się możliwość przyjęcia przez zmienną losową wartości spoza przedziału

σ

µ

σ

µ

3

,

3

-

+

. Postępowanie takie przyjęto nazywać postępowaniem zgodnym z prawem

trzech sigm.

PRZYKŁAD 6.9

Nal

eży oszacować

)

3

)

-

X

P(

σ

µ

dla rozkładu N(0,1)

korzy

stając kolejno z nierówności Czebyszewa (6.1),

następnie z nierówności (6.2) i z tablic rozkładu normalnego.

Rozwiązanie:

Z nierówności Czebyszewa:

111

.

0

9

1

)

3

)

-

X

P(

µ


z nierówności Gaussa:

049

.

0

9

9

4

)

3

)

-

X

P(

µ

z tablic:

0027

.

0

)

99865

.

0

1

(

2

))

3

(

1

(

2

3

)

-

X

P(

=

=

Φ

=

µ

Jest widoczne, że najgrubsze przybliżenie pochodzi od nierówności Czebyszewa i jest ok. 50 razy większe od

oszacowania dokładnego.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 38

PRZYKŁAD 6.10

Nal

eży oszacować zilustrowac prawo trzech sigm na przykładzie zmiennej o rozkładzie N(0,1)

.

Rozwiązanie:

z tablic:

997

.

0

1

99865

.

0

2

1

)

3

(

2

))

3

(

1

(

)

3

(

)

3

(

)

3

(

3)

X)

P(

=

=

Φ

=

Φ

Φ

=

Φ

Φ

=

A zatem jeśli przyjmiemy, że zmienna losowa ma rozkład normalny to prawdopodobieństwo tego, że zmienna

losowa przyjmie wartości spoza przedziału trzech sigm jest mniejsze od 0.3%.

6.2 Twierdzenia graniczne


Twierdzenia

graniczne

dotyczą

własności

ciągów

zmiennych

losowych

,...

,...,

,

2

1

n

X

X

X

Twierdzenia graniczne można połączyć w grupy:

twierdzeń granicznych lokalnych dotyczących zbieżności ciągu

funkcji

prawdopodobieństwa zmiennych losowych dyskretnych oraz zbieżności ciągu gęstości

prawdopodobieństwa zmiennych losowych ciągłych,

twierdzeń granicznych integralnych dotyczących zbieżności ciągu dystrybuant ciągu
zmiennych losowych.

Twierdzenia integralne

dotyczące ciągu niezależnych zmiennych losowych nazywamy

centralnymi.
Tutaj ograniczymy się do omówienia dwóch ważniejszych centralnych twierdzeń
granicznych.

Twierdzenie (centralne graniczne) Lindeberga-Levy’ego (CTG LL)

Jeżeli

,...,

,

2

1

X

X

są niezależnymi zmiennymi losowymi o tym samym rozkładzie mającym

wartość oczekiwaną µ i standardowe odchylenie

0

σ

to ciąg dystrybuant

)

(

N

n

F

n

zmiennych losowych:

n

n

X

n

X

Y

n

i

i

n

i

i

n

σ

µ

σ

µ

=

=

=

=

1

1

)

(

(6.3)

spełnia dla każdego

R

y

warunek:

du

e

y

F

y

u

n

n

=

2

/

2

2

1

)

(

lim

π

(6.4)


Oznacza to

innymi słowy, że ciąg zmiennych losowych (6.3) jest zbieżny według dystrybuant

do zmiennej losowej o rozkładzie normalnym

N(0,1). Jeżeli zachodzi wzór (6.4) to mówimy,

że zmienna losowa

=

n

i

i

X

1

ma

rozkład asymptotycznie normalny N( µ

n

,

n

σ

)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 39

Z twierdzenia LL wynika, że:

)

(

)

(

)

(

lim

1

2

2

1

y

y

y

Y

y

P

n

Φ

Φ

=

<

<

(6.5)

Możemy zatem uznać, że dla dostatecznie dużego n zachodzi:

)

(

)

(

)

(

lim

1

n

n

a

n

n

b

b

X

a

P

n

i

i

n

σ

µ

σ

µ

Φ

Φ

=

<

<

=

(6.6)


gdzie a i b

są pewnymi stałymi.

Ważnym wnioskiem z CTG jest także to, że średnia arytmetyczna niezależnych zmiennych

losowych o jednakowych rozkładach nawet znacznie różniących się od siebie, jest z dobrym
przybliżeniem normalna. Jeśli bowiem, zgodnie z powyższym

=

n

i

i

X

1

ma

rozkład

asymptotycznie normalny

N( µ

n

,

n

σ

) to

n

X

n

i

i

=1

ma rozkład N( µ ,

n

/

σ

)

Sformułujemy teraz nieco ogólniejsze CTG:

Twierdzenie (centralne graniczne) Lindeberga-Fellera (CTG LF) (1922,1937)

Niech

,...,

,

2

1

X

X

będą niezależnymi zmiennymi losowymi niekoniecznie o tym samym

rozkładzie mającymi wartości oczekiwane

i

i

X

µ

=

)

(

E

i wariancje

2

i

σ . Tworzymy zmienną

losową:

=

=

=

n

i

i

n

i

i

i

n

X

Y

1

2

1

)

(

σ

µ

(6.7)

Okazuje się, że przy bardzo słabych założeniach co do zmiennych losowych X

i

ciąg

dystrybuant

)

(

N

n

F

n

zmiennych losowych Y

n

spełnia dla każdego

R

y

warunek:

)

(

2

1

)

(

lim

2

/

2

y

du

e

y

F

y

u

n

n

Φ

=

=

π

(6.8)


Oznacza to

innymi słowy, że ciąg zmiennych losowych jest zbieżny według dystrybuant do

zmiennej losowej o r

ozkładzie normalnym N(0,1). Jeżeli zachodzi wzór (6.8) to mówimy, że

zmienna losowa

=

n

i

i

X

1

ma

rozkład asymptotycznie normalny.

Podobna zależność zachodzi dla kwantyli zmiennej losowej (6.7). Jeśli założymy, że istnieje i

jest zdefiniowany jednoznacznie kwantyl rzędu α zmiennej losowej

n

Y

-

)

(

α

n

y

to wtedy

także zachodzi:

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 40

)

(

)

(

lim

α

α

y

y

n

n

=

(6.9)


gdzie

)

(

α

y

jest kwantylem rzędu α zmiennej losowej o rozkładzie N(0,1).


W powyższym twierdzeniu nie sformułowaliśmy założeń twierdzenia. Zwykle założenia te

formułuje się w formie warunku wystarczającego tzw. warunku Lindeberga. Nie będziemy

tutaj formułować tego warunku. Ograniczymy się do stwierdzenia, że nakłada on ograniczenie

aby wpływ każdego ze składników

i

i

X

µ

na unormowaną sumę (6.7) stawał się znikomo

mały gdy

n

.


Z CTG LF wynikają ważne wnioski:

1. CTG LL jest szczególnym przypadkiem CTG LF.

Aby uzasadnić ten wniosek wystarczy przyjąć, że dla każdego i

µ

=

)

(

E

i

X

oraz dla

ka

żdego i

σ

σ =

i

.

Wtedy teza CTG LL wynika wprost z tezy CTG LF.

2.

Korzystając z CTG LF (lub CTG LL) sformułujemy integralne twierdzenia graniczne
Moivre’a-Laplace’a
.

Twierdzenie to mówi, że zmienna losowa o rozkładzie

dwumianowym ma rozkład asymptotycznie normalny

,...,

,

2

1

X

X

. Dla uzasadnienia tego faktu

załóżmy, że ciąg zmiennych losowych

ma rozkład zerojedynkowy. Funkcja

rozkładu jest jak wiadomo zdefiniowana dla takiej zmiennej wzorem:



=

=

=

=

=

poza

x

p

q

x

p

x

X

P

i

i

i

i

0

0

1

1

)

(

(6.10)


Łatwo policzyć, że powyższa zmienna losowa ma wartość oczekiwaną

p

X

i

=

)

(

E

i wariancję

pq

i

=

2

σ

.

Jeśli zastosujemy do ciągu takich zmiennych CTG LL to otrzymamy że zmienna

losowa:

npq

np

X

n

n

X

Y

n

i

i

n

i

i

n

=

=

=

=

1

1

σ

µ

(6.11)


jest asymptotycznie normalna.
Zauważmy jednak, że jeżeli rozpatrywać będziemy ciąg niezależnych doświadczeń i zmienna
losowa

)

,...,

2

,

1

(

n

i

X

i

=

przyjmować będzie wartość 1 gdy badane zjawisko wystąpi w i-ej

próbie i wartość 0 gdy nie wystąpi to zmienna losowa

=

n

i

i

X

1

będzie miała rozkład

dwumianowy z parametrami n i p. Wobec tego ze wzoru (6.11) i twierdzenia

LL wynika, że

zmienna o rozkładzie dwumianowym ma rozkład asymptotycznie normalny.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 41

PRZYKŁAD 6.11

Łańcuch rokowy składa się z n=43 ogniw. Ogniwa tego łańcucha mają wymiar

05

.

0

04

.

0

06

.

19

+

=

d

. Należy obliczyć

prawdopodobieństwo, że otrzymamy długość całego łańcucha

2

.

0

4

.

0

820

=

L

mm (przewidzianą normą).

Wskazówka: Oszacować nieznane parametry rozkładów wymiarów poszczególnych ogniw na podstawie

znajomości pola tolerancji korzystając z prawa

σ

3

a następnie wykorzystać CTG LF albo LL (centralne

twierdzenie graniczne Lindeberga-Fellera albo Lindeberga-Levy’ego).

Rozwiązanie:

Wartości średnie i odchylenia standardowe (w mm) szacujemy z prawa trzech sigm:

065

.

19

2

04

.

0

06

.

19

05

.

0

06

.

19

1

=

+

+

=

µ

,

015

.

0

6

04

.

0

05

.

0

1

=

+

=

σ

Wartości do standaryzacji zmiennej:

795

.

819

065

.

19

43

=

=

µ

,

09836

.

0

43

015

.

0

=

=

σ

oraz

=

<

<

=

<

<

)

09836

.

0

795

.

819

80

.

819

09836

.

0

795

.

819

60

.

819

(

)

80

.

819

60

.

819

(

i

i

X

P

X

P

47

.

0

1

9535

.

0

5199

.

0

))

68

.

1

(

1

(

)

05

.

0

(

)

05

.

0

68

.

1

(

=

+

=

Φ

Φ

=

<

<

=

Y

P

Dokonano odczytu z tablic rozkładu normalnego. Zatem szukane prawdopodobieństwo wynosi 0.47

PRZYKŁAD 6.12
(JO str. 59)

Lina stalowa jest spleciona z 20 drutów grubych i 70 cienkich. Wytrzymałość drutu grubego ma rozkład
równomierny w przedziale

>

<

8

.

4

,

2

.

3

kN natomiast wytrzymałość drutu cienkiego ma rozkład równomierny w

przedziale

>

<

2

.

1

,

8

.

0

kN. Przyjmując, że wszystkie zmienne losowe są niezależne, i że wytrzymałość liny jest

sumą wytrzymałości wszystkich drutów, znaleźć prawdopodobieństwo, że wytrzymałość liny Q jest większa od
145 kN.

Rozwiązanie:

Dla rozkładu równomiernego na przedziale <a, b> średnia równa się

2

b

a

+

=

µ

natomiast wariancja równa się

12

)

(

2

2

a

b

=

σ

. Otrzy

mujemy zatem dla drutu grubego i cienkiego odpowiednio średnia i wariancję:

4

2

8

.

4

2

.

3

=

+

=

g

µ

,

2133

.

0

12

)

2

.

3

8

.

4

(

2

2

=

=

g

σ

1

2

2

.

1

8

.

0

=

+

=

C

µ

0133

.

0

12

)

8

.

0

2

.

1

(

2

2

=

=

c

σ


Z CTG LF otrzymujemy, że zmienna losowa:

28

.

2

150

0133

.

0

70

2133

.

0

20

)

1

70

4

20

(

=

+

+

=

Q

Q

Y

n

ma w przyb

liżeniu rozkład N(0,1). A zatem

986

.

0

)

19

.

2

(

)

19

.

2

(

1

)

19

.

2

(

)

28

.

2

150

145

(

)

145

(

=

Φ

=

Φ

=

>

=

>

=

>

n

n

Y

P

Y

P

Q

P

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 42

Należy podkreślić, że twierdzenia graniczne w podanych sformułowaniach orzekają tylko
o

asymptotycznej zbieżności zmiennych losowych natomiast nie mówią nic o tempie

zbieżności. Sprawa ta wymaga w każdym przypadku osobnego badania.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 43

Elementy statystyki matematycznej

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 44

7

Podstawowe pojęcia statystyki

7.1 Definicje

Statystyka matematyczna

Tą zbiorowość nazywa się

-

nauka zajmująca się badaniem zjawisk masowych

i

prawidłowości występujących w tych zjawiskach. Przedmiotem badań statystycznych są

określone własności dużej zbiorowości pewnych jednostek (elementów).

populacją generalną. Badana własność elementów populacji to

cecha statystyczna

.

Przykład:

1.

Numer butów dorosłych Polaków – cecha statystyczna: numer butów, populacja: wszyscy

dorośli Polacy.

2.

Jakość produkcji opon w pewnych zakładzie – cecha statystyczna: jakość opon (spełnia

wymagania norm albo nie), populacja cała produkcja opon w danym roku.

Cechy statystyczne

mogą przyjmować wartości liczbowe (wzrost, waga, wiek, itp.) lub mogą

być wyrażane słownymi określeniami (np. płeć, kolor włosów,..) - w dalszym ciągu

przyjmujemy, że badana cecha ma charakter liczbowy.
Cecha statystyczna jest zmienną losową

Podstawą badań statystycznych są badania wyrywkowe (częściowe).

- X

Dlaczego badania częściowe

Badania częściowe - badania na

? -

populacja generalna liczna, badania są niszczące, wzg.

ekonomiczne, czasowe, itp.

próbie losowej

Próba (próbka) losowa -

część populacji dla której możemy obserwować (mierzyć) badaną

cechę X. Elementy próby wybieramy losowo z populacji. Element i-ty próby ma cechę X

i

(zmienna losowa, bo jej wartość zależy od wyniku losowania próby).

Próbę losową będziemy traktować jako ciąg zmiennych losowych

.

)

,...,

,

(

2

1

n

X

X

X

(7.1)


Próba losowa prosta (w skrócie PPL)
- próba losowa, w której cechy elementów X

i

niezależne i mają ten sam rozkład co cecha X w populacji generalnej. Będziemy zawsze

zakładać, że próby losowe są próbami prostymi.

Próbka losowa winna być reprezentatywna: musi oddawać (w mniejszej skali) strukturę

populacji, każdy element populacji musi mieć szansę znalezienia się w próbce, musi być
dostatecznie liczna.
Statystyka - zmienna losowa b

ędąca pewną (dowolną) funkcją wyników próby losowej:

)

,...,

,

(

2

1

n

X

X

X

f

U

=

(7.2)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 45

Realizację statystyki będziemy oznaczać zgodnie z umową mała literą

)

,...,

,

(

2

1

n

x

x

x

f

u

=

Estymacja -

szacowanie (przybliżanie) na podstawie próbki losowej rozkładu

prawdopodobieństwa (estymacja nieparametryczna) lub jego parametrów (estymacja
parametryczna
) cechy statystycznej w populacji,

Dwa podstawowe zadania statystyki matematycznej:

Estymator - dowolna statystyka U

służąca do oszacowania nieznanej wartości parametru θ

rozkładu prawdopodobieństwa cechy populacji, lub nieznanego rozkładu tej cechy.

Weryfikacja hipotez
Hipoteza (statystyczna) -

pewien sąd (przypuszczenie) dotyczące rozkładu

prawdopodobieństwa (lub parametrów rozkładu) cechy statystycznej populacji.

Ocena prawdziwości hipotezy (przeprowadzona na podstawie próbki losowej) to weryfikacja
hipotezy
.

7.2

Estymacja pojęcia podstawowe

Ten rozdział dotyczy głównie estymacji parametrycznej. Będziemy zainteresowani estymacją

(oszacowaniem) parametru θ rozkładu zmiennej losowej X.

Są dwa główne typy estymacji: punktowa i przedziałowa.
Estymacja punktowa

polega na tym, że tworzymy funkcję PPL

)

,...,

,

(

2

1

n

n

x

x

x

u

, która jest

realizacją zmiennej losowej

)

,...,

,

(

U

2

1

n

n

X

X

X

, której rozkład zależy od estymowanego

parametru θ. Funkcję U

n

nazywamy estymatorem, natomiast

n

u

wartością (albo realizacją)

estymatora U

n

. Używamy estymatora U

n

jednorazowo i otrzymaną wartość uznajemy

n

u

przyjmujemy za oszacowanie nieznanego parametru θ.

Na estymator punktowy nakłada się różne warunki, które omówimy dalej. Na razie powiemy

ogólnie, że wartości

n

u

estymatora powinny być możliwie bliskie wartości szacowanego

par

ametru θ.


Estymacja przedziałowa polega na tym, że tym razem tworzymy dwie funkcje próbki

)

,...,

,

(

2

1

n

n

x

x

x

u

i

)

,...,

,

(

2

1

n

n

x

x

x

u

(naturalnie

n

n

u

u

<

), które są realizacjami zmiennych

losowych

)

,...,

,

(

2

1

n

n

x

x

x

U

i

)

,...,

,

(

2

1

n

n

x

x

x

U

,

których rozkład zależy od parametru

θ.

Żądamy, aby wartości przedziału

)

,

(

n

n

u

u

były skupione wokół parametru

θ. Używamy

estymatora

)

,

(

n

n

U

U

jednorazowo i otrzymany przedział

)

,

(

n

n

u

u

przyjmujemy za

oszacowanie nieznaneg

o parametru θ.

7.3 Estymacja punktowa.

7.3.1 Zasady tworzenia estymatorów punktowych

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 46

Aby estymatory punktowe spełniały swoje zadanie żądamy aby spełniały pewne warunki.
Wymienimy je tutaj.

1.

Estymator powinien być nieobciążony

tzn: aby jego wartość przeciętna był równa

wartości parametru estymowanego tzn:

θ

=

)

(

E

n

n

U

(7.3)

2.

Jeśli estymator nie jest nieobciążony to często stawia się wymaganie aby był

asymptotycznie ni

eobciążony tzn:

θ

=

)

(

E

lim

n

n

U

(7.4)

3.

Estymator powinien być zgodny

tzn.

0

)

(

P

lim

n

=

>

ε

θ

ε

n

U

(7.5)


Ostatni warunek ma walory raczej teoretyczne.

4.

Jest pożądane, aby rozproszenie estymatoraa wokół estymowanego parametru było

możliwie małe tzn. aby estymator miał możliwie małą wariancję przy ustalonej liczności

próbki n. Stawia się zatem wymaganie efektywności estymatora. Efektywność estymatora

bada się tylko dla estymatorów nieobciążonych.
Estymator u

waża się za najefektywniejszy

n

U

~

jeśli jest nieobciążony i ma najmniejszą

wariancję ze wszystkich estymatorów danego parametru. Estymatory najefektywniejsze

nie zawsze istnieją. Jeśli jednak istnieje najefektywniejszy estymator parametru

θ, który

oznaczymy

to jego wartości są najbardziej skupione wokół wartości

θ

=

)

~

(

E

n

U

.

Estymator U

n

parametru θ zgodny i najefektywniejszy będziemy uważali za najlepszy do

oszacowania nieznanego parametru θ, ponieważ z dużym prawdopodobi eństwem można

przyjąć że zaobserwowana wartość estymatora U

n

jest bliska rzeczywistej wartości

parametru θ.
Jeśli

n

U

~

jest estymatorem najefektywniejszym danego parametru to za miarę

efektywności dowolnego estymatora U

n

przyjmuje się iloraz:

)

(

)

~

(

)

(

2

2

n

n

n

U

D

U

D

U

eff

=

(7.6)


Jest widoczne, że dla dowolnego estymatora

1

)

(

n

U

eff

, przy czym równość zachodzi

dla estymatorów najefektywniejszych. W przypadku jeśli efektywność estymatora U

n

dąży do 1 gdy

n

to nazywamy estymator ten asymptotycznie najefektywniejszym

.

7.3.2 Metody uzyskiwania estymatorów – metoda momentów (analogii

pomiędzy próbką i populacją)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 47

Metoda ta został wprowadzona przez K. Pearsona. Polega ona na tym, że jako estymatory

momentów zmiennych losowych oraz funkcji tych momentów przyjmuje się tzw. momenty

empiryczne lub funkcje tych momentów. Pokażemy to na przykładzie estymacji

podstawowych parametrów zmiennych losowych takich jak wartość średnia, wariancja czy
odchylenie standardowe.
Momenty zwykłe zmiennych losowych rzędu k

k

EX

m

k

=

oraz centralne

k

1

)

E(

m

X

k

=

µ

zdefiniowane we wcześniejszych rozdziałach nazywa się w statystce momentami
teoretycznymi

k

M

. Momentami em

pirycznymi, oznaczanymi odpowiednio dużymi literami

oraz

k

C

będziemy nazywać statystyki będące funkcjami PPL. Definiujemy je następująco:

1. Moment empiryczny

zwykły rzędu k definiujemy wzorem:

=

=

n

i

k

i

k

X

n

M

1

1

(7.7)

Jest widoczne, że moment ten oblicza się tak jak moment zwykły teoretyczny dla zmiennej
typu skokowego, o punktach skokowych x

i

.


2. Moment empiryczny centralny definiujemy wzorem:

=

=

n

i

k

i

k

M

X

n

C

1

1

)

(

1

(7.8)

Jest widoczne, że moment ten oblicza się tak jak moment centralny teoretyczny dla zmiennej
losowej skokowej, o punktach skokowych x

i

.


Estymator parametru

θ=m

1

tworzy się metodą momentów przyjmując, że parametr ten

opisuje średnia empiryczna:

=

=

n

i

i

X

n

X

1

1

(7.9)

zwana statystyką „X z kreską”.

Analogicznie estymator parametru θ, kt

órym jest wariancja

two rzy się metodą

momentów przyjmując, że parametr ten opisuje statystyka „S kwadrat”:

=

=

=

=

n

i

i

n

i

i

X

X

n

M

X

n

S

1

2

1

2

1

2

)

(

1

)

(

1

(7.10)

W przypadku

gdy znane jest wartość oczekiwana zmiennej losowej X i jest równa µ to

estymator wariancji (7.10)

możemy zapisać w postaci:

=

=

n

i

i

X

n

S

1

2

2

0

)

(

1

µ

(7.11)

PRZYKŁAD 7.13

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 48

Udowodnić, że estymator wartości średniej (7.9) jest nieobciążony. Policzyć wariancję tego estymatora.

Obliczmy wartość oczekiwana tego estymatora (bez względu na rozkład zmiennej losowej):

Rozwiązanie:

1

1

1

1

1

1

)

(

E

1

)

(

E

1

)

1

(

E

)

(

E

m

nm

n

X

n

X

n

X

n

X

n

i

i

n

i

n

n

i

n

=

=

=

=

=

=

=

=

(a)


A zatem jest to estymator nieobciążony. Obliczymy teraz wariancję:

n

n

n

X

n

X

n

X

n

X

n

i

i

n

i

n

n

i

n

2

2

1

2

2

1

2

2

1

2

2

1

)

(

D

1

)

(

D

1

)

1

(

D

)

(

D

σ

σ

=

=

=

=

=

=

=

=

(b)

Można łatwo pokazać, że w wielu rodzinach zmiennych losowych o wariancji

2

σ

np. w rodzinie rozkładu

dwumianowego, Poissona, normalnego estymator ten jest najefektywniejszy.

Można wykazać, że estymator wariancji

2

S

ma wartość oczekiwaną równą:

2

2

1

)

(

E

σ

n

n

S

=

(7.12)

Wynika

stąd, że estymator (7.10) nie jest nieobciążony. Jest natomiast asymptotycznie

nieobciążony ponieważ:

1

1

lim

=

n

n

n

(7.13)

Ze wzoru

(7.12)

wynika, że estymator (7.10) można zmodyfikować tak, by otrzymać nowy

estymator nieobciążony

2

ˆ

S :

=

=

=

n

i

i

X

X

n

S

n

n

S

1

2

2

2

)

(

1

1

1

ˆ

(7.14)

Łatwo bowiem sprawdzić, że:

2

2

2

2

1

1

)

1

E(

)

ˆ

(

E

σ

σ

=

=

=

n

n

n

n

S

n

n

S

(7.15)


Szczególne własności powyższych estymatorów wariancji można pokazać w przypadku, gdy

cecha X ma rozkład normalny

)

,

(

σ

µ

Ν

. Można udowodnić, że w takim przypadku żaden z

powyższych estymatorów wariancji nie jest najefektywniejszy. Estymator

2

S

nie jest w ogóle

nieobciążony, natomiast

2

ˆ

S jest najefektywniejszy ale tylko asymptotycznie.

Na zakończenie

dyskusji w tym przypadku poczynimy dwie uwagi:

Jeśli eksperyment przeprowadza się tylko raz to może się zdarzyć, że estymatorem

2

S

trafimy lepiej niż

2

ˆ

S

Biorąc pod uwagę, że dla dużych n estymatory

2

S

oraz

2

ˆ

S

mają w przybliżeniu równe

wartości nie jest istotne, którego z nich przyjmiemy w oszacowaniu nieznanego parametru

2

σ . Często w praktyce dla rozkładów normalnych i

30

n

korzysta się z estymatora

2

ˆ

S

a dla

30

>

n

z estymatora

2

S

.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 49

Na zakończenie tego punktu, należy podkreślić, że jeśli występuje konieczność budowy

estymatorów parametrów będących funkcjami momentów, to jako estymatory tych

parametrów przyjmuje się wartości tych funkcji momentów empirycznych. Estymatory

uzyskane metodą momentów mają tą zaletę, że znajdowanie ich wartości jest związane na

ogół z prostymi rachunkami. Istotną zaś wadą tak uzyskanych estymatorów jest ich mała na

ogół efektywność (korzystnym wyjątkiem jest tu przypadek, gdy cecha X ma rozkład
normalny).

PRZYKŁAD 7.14

Niech X w populacji ma rozkład równomierny na odcinku <a,b>. Wyznaczyć estymatory parametrów metodą
momentów.

Ponieważ:

Rozwiązanie:

12

)

(

)

(

D

2

)

(

E

2

2

2

1

a

b

X

oraz

b

a

m

X

=

=

+

=

=

µ

(a)

Stąd po przekształceniach (jest to układ dwóch równań) otrzymujemy:

2

1

1

3

2

µ

±

=

=

m

a

oraz

a

m

b

(b)

i (odrzucamy rozwiązanie z +):

3

3

1

1

σ

σ

+

=

=

m

b

oraz

m

a

(c)

Stąd wynika następujący estymator parametrów a i b:

3

ˆ

3

ˆ

S

X

B

oraz

S

X

A

+

=

=

(d)

7.3.3 Metody uzyskiwania estymatorów –

metoda największej wiarygodności

(MNW)

Jest to metoda zapr

oponowana przez Fishera. Niech cecha X elementów populacji będzie

zmienną losową typu ciągłego o gęstości prawdopodobieństwa f zależnej od m nieznanych
parametrów

)

,

,

,

(

2

1

m

θ

θ

θ

. Parametry te chcemy oszacować na podstawie n-elementowej

próbki, w któ

rej zaobserwowano wartości

)

,

,

,

(

2

1

n

x

x

x

. Wprowadzimy w tym celu funkcję

L określoną wzorem:

=

=

=

=

=

n

i

m

i

m

n

m

m

m

n

x

f

x

f

x

f

x

f

x

x

x

L

1

2

1

2

1

2

1

2

2

1

1

2

1

2

1

)

,

,

,

:

(

)

,

,

,

:

(

)

,

,

,

:

(

)

,

,

,

:

(

)

,

,

,

,

,

,

,

(

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

(7.16)

Te wartości parametrów

m

θ

θ

θ

,

,

,

2

1

, dla których funkcja L

osiąga maksimum będziemy

przyjmować za oszacowanie nieznanych parametrów. Wartości te będą zależeć od wartości

zaobserwowanych w próbce. Są zatem funkcjami próbki czyli statystykami. Nazywać je

będziemy estymatorami największej wiarygodności (estymator NW).

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 50

W dalszym ciągu przyjmiemy dla uproszczenia zapisu (nie zmniejsza to zbytnio ogólności

rozważań), że f zależy tylko od jednego parametru

θ

θ

=

1

. Wzór (7.16) ma w takim

przypadku postać:

=

=

=

n

i

i

n

n

x

f

x

f

x

f

x

f

x

x

x

L

1

2

1

2

1

)

:

(

)

:

(

)

:

(

)

:

(

)

,

,

,

,

(

θ

θ

θ

θ

θ

(7.17)

Jeśli zmienna losowa jest zmienną losową typu skokowego o prawdopodobieństwach

)

,

(

θ

k

p

(uproszczamy sytuację do estymacji tylko jednego parametru) to funkcję wiarygodności
zapisujemy w postaci:

=

=

=

n

i

i

n

n

x

p

x

p

x

p

x

p

x

x

x

L

1

2

1

2

1

)

:

(

)

:

(

)

:

(

)

:

(

)

,

,

,

,

(

θ

θ

θ

θ

θ

(7.18)

Jak i poprzednio poszukujemy takiego parametru

θ

ˆ

aby w zbiorze wartości dopuszczalnych

dla parametru

θ było:

)

,

,

,

,

(

sup

)

ˆ

,

,

,

,

(

2

1

2

1

θ

θ

n

n

x

x

x

L

x

x

x

L

=

(7.19)


Wzór (7.19)

oznacza, że poszukujemy takiego oszacowania nieznanego parametru, że

prawdopodobieństwo otrzymania zaobserwowanych wartości jest największe.

Poszukując maksimum funkcji L, która ma postać iloczynu funkcji, wygodnie jest skorzystać

z faktu, że funkcja L osiąga maksimum wtedy, gdy maksimum osiąga ln L.

PRZYKŁAD 7.15

Uzasadnić, że poszukiwanie maksium funkcji L względem parametru

θ

jest równoważne poszukiwaniu

maksimum funkcji ln L.

Zapisując warunki konieczne maksimum funkcji L oraz maksimum funkcji lnL (L>0) widzimy, że są
równoważne.

Rozwiązanie:

0

1

ln

0

=

=

=

θ

θ

θ

d

dL

L

d

L

d

oraz

d

dL

(a)

Załóżmy że warunki te spełnione są w punkcie

θ

θ

ˆ

=

.

Druga pochodna funkcji lnL jest równa:

2

2

ˆ

2

2

2

2

2

2

1

)

(

)

1

(

ln

θ

θ

θ

θ

θ

θ

θ

θ

d

L

d

L

L

d

dL

L

d

L

d

d

dL

L

d

d

d

L

d

=

=

=

=

(b)

Ponieważ L>0 więc widać, że znak drugiej pochodnej funkcji lnL jest taki sam jak znak drugiej pochodnej
funkcji L.

Rozważymy teraz kilka przykładów uzyskiwania estymatorów MNW.

PRZYKŁAD 7.16

W teorii

niezawodności przyjmuje się, że czas sprawnej pracy elementu jest zmienną losową o rozkładzie

wykładniczym z gęstością:

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 51



=

tym

poza

x

dla

e

x

f

x

0

0

1

)

(

1

α

α

(a)


Gdzie

0

>

α

jest czasem oczekiwane sprawnej pracy. Należy znaleźć estymator parametru

α

MNW


Parametr

Rozwiązanie:

α

przyj

muje wartości ze zbioru liczb rzeczywistych dodatnich.

Zadanie rozwiążemy w kolejnych krokach.
1. Pobieramy n-

elementową PPL, której realizacja to

)

,

,

,

(

2

1

n

x

x

x

2.

Konstruujemy funkcję wiarygodności L:

i

n

i

i

n

x

n

n

i

x

x

x

x

e

e

e

e

e

L

=

=

=

=

=

1

2

1

1

1

1

1

1

1

1

1

1

1

1

)

(

α

α

α

α

α

α

α

α

α

α

α

(b)

Ponieważ funkcja ta osiąga maksimum w tym samy punkcie co lnL to wystarczy znaleźć maksimum funkcji:

=

=

n

i

i

x

n

L

1

1

ln

ln

α

α

(c)

Warunek konieczny:

0

1

ln

1

2

=

+

=

=

n

i

i

x

n

d

L

d

α

α

α

(d)

Jedyne rozwiązanie:

=

=

n

i

i

x

n

1

1

ˆ

α

(e)

Należy sprawdzić czy jest to maksimum (obliczymy drugą pochodną):

)

2

(

1

2

ln

1

2

1

3

2

2

2

=

=

=

=

n

i

i

n

i

i

x

n

x

n

d

L

d

α

α

α

α

α

(f)

Obliczymy teraz wartość drugiej pochodnej w punkcie

αˆ

(wzór (e)):

0

ˆ

)

2

(

ˆ

1

)

ln

(

2

2

ˆ

2

2

<

=

=

=

α

α

α

α

α

n

n

n

d

L

d

(g)

Skąd wynika że w punkcie określonym wzorem (e) występuje maksimum. Ponadto otrzymana wartość jest
dodatnia zatem spełnia warunki nałożone na dziedzinę estymatora.

3.

Zapisujemy teraz estymator NW pamiętając, że jest on zmienną losową:

=

=

n

i

i

X

n

A

1

1

ˆ

(h)

Porównując otrzymaną wartość ze wzorem (7.9) stwierdzamy, że jest to estymator nieobciążony i
najefektywniejszy.


PRZYKŁAD 7.17

Zakładamy, że cecha X populacji ma rozkład dwumianowy:

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 52

m

x

dla

p

p

x

m

x

p

P

x

m

x

,

,

2

,

1

)

1

(

)

,

(

=





=

(a)

Wyznaczyć estymator parametru MNW.

Pobieramy najpierw n-

elementową PPL, której realizacja to

Rozwiązanie:

)

,

,

,

(

2

1

n

x

x

x

.

Zbiorem rozwiązań

dopuszczalnych jest odcinek (0,1). Zapiszemy funkcję wiarygodności:

=





=

=













=

n

i

x

m

x

i

x

m

x

n

x

m

x

x

m

x

i

i

n

n

p

p

x

m

p

p

x

m

p

p

x

m

p

p

x

m

L

1

2

1

)

1

(

)

1

(

)

1

(

)

1

(

2

2

1

1

(b)

Łatwiej prowadzić rachunki po obliczeniu logarytmu lnL:

)

)

1

ln(

)

(

ln

(ln

)

)

1

ln(

ln

(ln

ln

1

1

1

1

1

1

=

=

+

+





=

+

+





=

n

i

i

i

n

i

x

m

x

p

x

m

p

x

x

m

p

p

x

m

L

(c)

Warunek konieczny:

0

)

1

(

)

)

1

(

)

(

)

1

(

(

)

)

1

(

)

(

)

1

(

(

)

1

)

(

(

ln

1

1

1

1

=

=

=

=

=

=

=

=

=

=

p

p

nmp

x

p

p

p

x

m

p

x

p

p

p

x

m

p

x

p

x

m

p

x

dp

L

d

n

i

i

i

i

n

i

i

i

n

i

i

i

n

i

(d)

Punkt podejrzany o ekstremum:

m

x

x

nm

p

n

i

i

=

=

=1

1

ˆ

(e)

Można sprawdzić, że

1

ˆ

0

<

< p

. Należy jeszcze wykazać, że jest to maksimum. Obliczymy drugą pochodną:

[

]

2

1

1

2

2

)

1

(

)

2

1

(

)

(

)

1

(

)

1

(

ln

p

p

p

nmp

x

p

nmp

p

p

nmp

x

dp

L

d

n

i

i

n

i

i

=

==

=

=

(f)

Łatwo widać, że dla wartości parametru

pˆ

(wzór (e)) drugi człon licznika wzoru (f) jest równy 0 natomiast

pierwszy zawsze ujemny bo

0

)

ˆ

1

(

ˆ

>

p

p

w przedziale

1

ˆ

0

<

< p

.

Jako estymator parametru p przyjmujemy zatem statystykę:

m

X

X

nm

P

n

i

i

=

=

=1

1

ˆ

(g)

Na zakończenie należy stwierdzić, że estymatory otrzymane MNW mają wiele zalet: są

asymptotycznie nieobciążone i asymptotycznie najefektywniejsze. W niektórych przypadkach
obie zalety lub jedna z nich wys

tępuje z pominięciem słowa „asymptotycznie”.

7.4

Estymacja przedziałowa.

Jednorazowa estymacja punktowa daje oszacowanie nieznanego parametru

θ w postaci

jednej liczby

θ

ˆ

. Jeśli użyto estymatora dobrego (np. nieobciążonego i wysoce efektywnego)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 53

i

jeśli próbka jest duża to zwykle θ niewiele się różni od

θ

ˆ

. Jednak, jeśli jednorazowa

estymacja punktowa niewiele mówi o dokładności uzyskanego wyniku. Więcej na ten temat
mówi estymacja przed

ziałowa. Polega ona na podaniu przedziału, który w zamierzeniu

zawiera interesującą nas wielkość oraz na określeniu niepewności związanej z tym

przedziałem. Przedział ten nazywa się przedziałem ufności dla danego parametru.

Zakładamy jak poprzednio, że cecha X w populacji jest zmienna losową, której rozkład

należy do pewnej rodziny i rozkład ten zależy od pewnego stałego lecz nieznanego parametru

θ . Naszym zadaniem jest oszacowanie parametru θ .


Przedział ufności dla parametru θ tworzymy następująco:

1.

Pobieramy z populacji PPL, którą w skrócie oznaczymy

)

,

,

,

(

2

1

n

X

X

X

E

=

.

2. Tworzymy dwie statystyki

)

(E

U

n

oraz

)

(E

U

n

, takie że

)

(

)

(

E

U

E

U

n

n

oraz takie, że

dl

a każdego rozkładu cechy X z założonej rodziny musi zachodzić:

α

θ

<

<

1

))

(

)

(

(

E

U

E

U

P

n

n

(7.20)


gdzie

α

jest ustaloną i niewielką liczbą z przedziału (0,1) na przykład równą 0.01, 0.05 albo

0.1.
Statystyki

)

(E

U

n

oraz

)

(E

U

n

dobieramy tak, aby przy danym

α

długość przedziału

))

(

),

(

(

E

U

E

U

n

n

była możliwie mała.

Przedział losowy

))

(

),

(

(

E

U

E

U

n

n

nazywa się przedziałem ufności natomiast liczba

α

1

nazywa się poziomem ufności.

Jeśli próbkę można pobierać wielokrotnie, to za każdym razie powstanie realizacja przedziału

ufności

))

(

),

(

(

E

u

E

u

n

n

na ogół różna za każdym razem. Czasem relacja

)

(

)

(

E

u

E

u

n

n

<

<

θ

będzie spełniona czasem nie. Jednak w długiej liczbie eksperymentów frakcja przypadków,

w których będzie spełniona będzie bliska

α

1

czyli duża.

W rzeczywistości zwykle poprzestajemy na jednym tylko eksperymencie, znajdujemy zatem

tylko jedną parę liczb i jeden przedział

)

,

(

n

n

u

u

. Nie wiemy czy obejmuje on nieznany

parametr

θ ale ponieważ liczba

α

1

jest bliska jedności (np. 0.9, 0.95 albo 0.99) ufamy, że

n

n

u

u

<

<

θ

.

Zwykle orzekamy, że na poziomie ufności

α

1

przedział ufności dla parametru θ przyjął

wartość

)

,

(

n

n

u

u

.

Zwracamy uwagę, że orzeczenie: parametr θ jest zawarty w stałym przedziale

)

,

(

n

n

u

u

z

prawdopodobieństwem

α

1

nie ma sensu bo

θ nie jest zmienna losową.

Pokażemy teraz na przykładach w jaki sposób buduje się przedziały ufności w pewnych

typowych przypadkach dla wartości średnich i dla wariancji.

PRZYKŁAD 7.18

Cecha X elementów populacji generalnej ma rozkład normalny

)

,

(

σ

µ

N

przy czym odchylenie standardowe

σ

jest znane

natomiast nie jest znana wartość przeciętna

µ

. Należy zbudować dwustronny symetryczny przedział

ufności dla wartości oczekiwanej

µ

.

Rozwiązanie

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 54

Przyjm

ijmy za estymator średniej

µ

statystkę X . Ponieważ cecha X ma rozkład normalny to X ma rozkład

)

/

,

(

n

N

σ

µ

. W takim razie zmienna standaryzowana:

n

X

σ

µ

(a)


ma rozkład

)

1

,

0

(

N

.

Można z tablic dobrać taką stałą t, że:

α

σ

µ

=

<

<

1

t

n

X

t

P

(b)

gdzie

α

jest liczbą stałą. Zależność (b) można przekształcić do postaci:

α

σ

µ

σ

=

+

<

<

1

n

t

X

n

t

X

P

(c)

A zatem przedział losowy:

+

n

t

X

n

t

X

σ

σ

,

(d)

jest dwustronnym symetrycznym przedziałem ufności na poziomie ufności

α

1

dla parametru

µ

. Długość tego

przedziału jest równa:

n

t

L

σ

2

=

(e)

i jest l

iczbą stałą dla ustalonych wartościach t , n i

σ

. Pozostaje jeszcze uzasadnić jak dobrać stałą t. Otóż z

równości (b) łatwo widać, że liczba t jest kwantylem rzędu

2

/

1

α

rozkładu normalnego

)

1

,

0

(

N

.


PRZYKŁAD 7.19
Rozważymy zadanie bardzo podobne do poprzedniego. Cecha X elementów populacji generalnej ma nadal

rozkład normalny

)

,

(

σ

µ

N

ale założymy, że tym razem odchylenie standardowe

σ

nie jest znane i nie jest

znana wartość przeciętna

µ

. Należy zbudować dwustronny symetryczny przedział ufności dla wartości

oczekiwanej

µ

.

Można przypuszczać, że zadanie można rozwiązać analogicznie jak w przykładzie

Rozwiązanie

7.18. Jednak czytelnik zechce

zauważyć, że tym razem nie możemy wykorzystać zmiennej standaryzowanej (a) z przykładu 7.18 ponieważ nie
znamy wartości

σ

. Postąpimy bardzo podobnie jak w poprzednim przykładzie ale zamiast odchylenia

standardowego wykorzystamy jego estymator. Przyjm

ijmy zatem za estymator średniej

µ

statystkę X .

Zdefiniujemy także statystykę:

=

=

n

i

i

X

X

n

S

1

2

2

)

(

1

(a)

Czytelnik zechce zauważyć, że statystyka (a) odpowiada estymatorowi wariancji (7.10). Wiemy z poprzednich
wykładów, że zmienna losowa

1

n

S

X

µ

ma rozkład t Studenta. Można zatem, analogicznie jak w

przykładzie 7.18 znaleźć taką liczbę

)

1

,

(

n

t

α

że zachodzi:

α

α

µ

α

=

<

<

1

)

1

,

(

1

)

1

,

(

n

t

n

S

X

n

t

P

(b)

gdzie P(.) jest prawdopodobieństwem w rozkładzie z n-1 stopniami swobody, natomiast

)

1

,

(

n

t

α

jest

kwantylem rzędu

2

/

1

α

zmiennej o tym rozkładzie.

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 55

Równanie (b) można przekształcić do postaci:

α

α

µ

α

=

+

<

<

1

1

)

1

,

(

1

)

1

,

(

n

S

n

t

X

n

S

n

t

X

P

(c)

A zatem podobnie jak w przykładzie 7.18 zatem przedział losowy:

+

1

)

1

,

(

,

1

)

1

,

(

n

S

n

t

X

n

S

n

t

X

α

α

(d)

jest dwustronnym symetrycznym przedziałem ufności na poziomie ufności

α

1

dla parametru

µ

. Długość

przedziału jest równa:

S

n

n

t

L

1

)

1

,

(

2

=

α

(e)

i jest zmienną losową.

PRZYKŁAD 7.20
Założymy, że cecha X elementów populacji generalnej ma rozkład nieznany i wiadomo, że odchylenie
standardowe

σ

oraz wartość przeciętna

µ

istnieją choć nie są znane. Należy zbudować dwustronny

symetryczny przedział ufności dla wartości oczekiwanej

µ

.

Tak sformułowane zadanie możemy rozwiązać tylko dla przypadku, gdy n jest duże (co najmniej kilkadziesiąt).

Wykorzystamy twierdzenia graniczne. Przy przyjętych założeniach możemy skorzystać z twierdzenia LL albo
LF i przyjąć, że średnia

Rozwiązanie

X

ma asymptotycznie rozkład normalny

)

/

,

(

n

N

σ

µ

. Za oszacowanie nieznanej

wariancji

2

σ

przyjmiemy estymator (7.10)

. Powtarzamy rozumowanie z przykładu 7.18, które jest

usprawiedliwione w rozważanym przypadku tylko dla dużych n. Przez analogię otrzymujemy odpowiednik

przedziału ufności (d) z przykładu 7.18.

+

n

tS

X

n

tS

X

,

(a)

gdzie t jest kwantylem

2

/

1

α

rozkładu normalnego.

PRZYKŁAD 7.21

Cecha X elementów populacji ogólnej ma rozkład normalny

)

,

(

σ

µ

N

przy czym jest znana wartość przeciętna

µ

a nie jest znane

2

σ

. Należy zbudować dwustronny przedział ufności dla parametru

2

σ

.

Rozw

ażmy zmienną losową

Rozwiązanie:

σ

µ

=

X

Y

. Zmienna ta ma rozkład

)

1

,

0

(

N

.

Wartość z próbki oznaczymy

σ

µ

=

k

k

X

Y

. Zmienna losowa zdefiniowana następująco:

=

=

n

i

i

n

Y

1

2

2

χ

(a)

ma rozkład chi-kwadrat o n stopniach swobody. Można znaleźć dla tego rozkładu (korzystając np. z tablic) dla
danego

α

liczby

)

,

(

2

1

n

α

χ

i

)

,

(

2

2

n

α

χ

takie, że:

α

χ

χ

=

<

<

=

1

1

2

2

2

2

1

n

i

i

Y

P

(b)

Liczby

)

,

(

2

1

n

α

χ

i

)

,

(

2

2

n

α

χ

spełniają warunki:

(

) (

)

2

2

2

2

2

1

2

α

χ

χ

χ

χ

=

>

=

<

P

P

(c)

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę
o informację na adres fraczek@meil.pw.edu.pl . Wersja 02

Strona 56

Wynika z powyższego, że liczba

)

,

(

2

2

n

α

χ

jest kwantylem rzędu

2

/

α

rozkładu

2

χ

o n stopniach swobody

natomiast

)

,

(

2

1

n

α

χ

jest kwantylem rzędu

2

/

1

α

.

Korzystając ze wzoru (7.11) otrzymujemy:

α

χ

σ

χ

=





<

<

1

2

2

2

0

2

2

1

2

0

nS

nS

P

(d)

Przedział :





2

1

2

0

2

2

2

0

,

χ

χ

nS

nS

(e)

Jest przedziałem ufności dla wariancji

2

σ

na poziomie ufności

α

1

.



Document Outline


Wyszukiwarka

Podobne podstrony:
MiTE wykład 1 4 wersja 07
MiTE wykład 7 8 wersja 01
Materiały pomocne przy nauce podsumowanie powyższych wykładów wersja mini
Analiza i pomiar systemów logistycznych wykład 1( 24.02.2008)(1), Logistyka, Logistyka
Polityka bezp. Wykład 20.02.2011r, Sudia - Bezpieczeństwo Wewnętrzne, Semestr II, Polityka Bezpiecze
Wykład 1 04.02, Studia, Współczesne systemy polityczne
kosmetologia wyklad 22 02 09(1)
podstawy zarządzania wykłąd I 22 02 2013, WSM Kawęczyńska semestr II, PODSTAWY ZARZĄDZANIA WYKŁAD
wyklad 21.02.2010
Analiza systemowa 15 wersja 02
Rzeczy których nie ma u piegusa wykład chemia( 02 2014
Owoce i warzywa wykłady (wersja 4)
Ekologiczna rola pasożytów wykład (13 02 )
Systemy Eksploatacji Złóż Wykłady 2 wersja
Z Wykład 23.02.2008, Zajęcia, II semestr 2008, Analiza matematyczna
Wykład XIV  02 01 Piramida kości skroniowej
Wykład XVI  02 01 Krtań
wyklady1 i 2, NASIENNICTWO, WYKŁAD PIERWSZY, 02

więcej podobnych podstron