background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 1 

 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Miernictwo i Techniki Eksperymentu 

Oprac. Janusz Frączek 

 

Uwaga: Jest to wersja wstępna wykładu, która może zawierać błędy. 

W razie wątpliwości proszę przedyskutować je z prowadzącym przedmiot 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 2 

 

Spis treści 
 

1.1

 

Piśmiennictwo ........................................................................................... 3

 

1.2

 

Pojęcia wstępne ........................................................................................ 3

 

2

 

Zmienna losowa .............................................................................. 9

 

2.1

 

Zmienna losowa jednowymiarowa. ........................................................ 9

 

2.2

 

Typy zmiennych losowych..................................................................... 10

 

3

 

Charakterystyki zmiennej losowej .............................................. 13

 

3.1

 

Charakterystyki liczbowe zmiennych losowych ................................. 13

 

4

 

Zmienne losowe wielowymiarowe. .............................................. 17

 

4.1

 

Zmienna losowa dwuwymiarowa ......................................................... 17

 

5

 

Typowe rozkłady zmiennych losowych ...................................... 25

 

5.1

 

Rozkłady dyskretne ............................................................................... 25

 

5.1.1

 

Rozkład dwupunktowy .................................................................................................................... 25

 

5.1.2

 

Rozkład dwumianowy ..................................................................................................................... 25

 

5.1.3

 

Rozkład Poissona ............................................................................................................................ 27

 

5.2

 

Rozkłady zmiennych typu ciągłego ...................................................... 28

 

5.2.1

 

Rozkład jednostajny ........................................................................................................................ 29

 

5.2.2

 

Rozkład normalny ........................................................................................................................... 30

 

5.2.3

 

Rozkład chi-kwadrat ....................................................................................................................... 32

 

5.2.4

 

Rozkład t Studenta .......................................................................................................................... 34

 

5.3

 

Addytywność rodziny zmiennych losowych. ....................................... 35

 

6

 

Twierdzenia graniczne ................................................................. 37

 

6.1

 

Nierówność Czebyszewa ........................................................................ 37

 

6.2

 

Twierdzenia graniczne .......................................................................... 38

 

7

 

Podstawowe pojęcia statystyki .................................................... 44

 

7.1

 

Definicje .................................................................................................. 44

 

7.2

 

Estymacja pojęcia podstawowe ............................................................ 45

 

7.3

 

Estymacja punktowa. ............................................................................ 45

 

7.3.1

 

Zasady tworzenia estymatorów punktowych .................................................................................. 45

 

7.3.2

 

Metody uzyskiwania estymatorów – 

metoda momentów (analogii pomiędzy próbką i populacją) 46

 

7.3.3

 

Metody uzyskiwania estymatorów – 

metoda największej wiarygodności (MNW) ........................ 49

 

7.4

 

Estymacja przedziałowa. ....................................................................... 52

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 3 

 

 

1.1 

Piśmiennictwo 

 

• 

Oderfeld  J.:  Statystyczne  podstawy  prac  doświadczalnych, Wydawnictwo Politechniki 
Warszawskiej, 1990 

• 

Plucińska A., Pluciński E.: Probabilistyka, WNT, Warszawa 2000 

• 

Kordecki  W.:  Rachunek  prawdopodobieństwa  i  statystyka  matematyczna, Oficyna 

Wydawnicza GiS, Wrocław 2003 

• 

Gajek L., Kałuszka M.: Wnioskowanie statystyczne, modele i metody. WNT 1996. 

•  Bobrowski D.: Probabilistyka w zastosowaniach technicznych, WNT 1986 

• 

Majsnerowska  Małgorzata:  Elementarny  wykład  z  rachunku  prawdopodobieństwa 

zadaniami. Skrypt UW, Wrocław 2002. 

• 

Zieliński R.: Tablice statystyczne, PWN, W-wa 1972. 

•  Pakiety komputerowe: MATLAB – Statistical toolbox, Statistica, Statgraphics 

1.2 

Pojęcia wstępne 

 

Prawdopodobieństwo:  
 

Niech 

Ω  będzie  zbiorem  możliwych  wyników  w  doświadczeniu  losowym  czyli 

przes

trzenią zdarzeń, elementy Ω to zdarzenia elementarne. Podzbiór 

Ω

A

 to zdarzenie, a 

jego elementy to zdarzenia elementarne 

  – 

zdarzenie  niemożliwe, 

Ω\A

A'

=

  zdarzenie 

przeciwne, 

B

A

 - 

jednocześnie zaszło A i B

B

A

zaszło co najmniej jedno z nich. Jeśli 

Φ

B

A

=

zdarzenia się wykluczają.  

Definicje
 

1. 

{

}

n

Ω

ω

ω

ω

,...,

,

2

1

=

 - 

skończona przestrzeń zdarzeń  

Funkcja 

( )

n

i

i

i

,...,

2

,

1

P

:

P

=

ω

ω

 

taka, że 

( )

( )

1

P

0

P

i

=

n

i

i

i

oraz

ω

ω

, nazywa się 

prawdopodobieństwem dyskretnym skończonym

Dla dowolnego zdarzenia 

Ω

A

 : 

( )

( )

{

}

=

A

i

i

P

A

ω

ω

:

1

P

 

(2.1) 

 

 

Jeżeli  

( )

( )

=

=

=

A

A

n

i

n

i

P

,...,

2

,

1

1

P

ω

 

(2.2) 

Jest to 

klasyczna definicja prawdopodobieństwa

Sprawdzamy, że:  

a) 

( )

0

P

A

 

b) 

Prawdopodobieństwo sumy skończonej liczby zdarzeń parami wykluczających 

się jest równe sumie prawdopodobieństw  

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 4 

 

c) 

( )

1

P

=

 

 

PRZYKŁAD  2.1 

Zadanie

Dwie radiostacje tego  samego typu położone  w pewnej odległości od siebie  mogą być nastrojone na 

jedną z 10 częstotliwości. Jakie jest prawdopodobieństwo, że obie radiostacje nastrojone i włączone niezależnie 

będą miały tę samą częstotliwość? 

 (Bobrowski str. 101) 

( )

{

}

10

,

,

2

,

1

,

,

=

=

j

i

e

ij

Rozwiązanie 

,  

e

ij

 – 

zdarzenie elementarne, że pierwsza radiostacja ma częstotliwość i 

a druga ma  j

{

}

j

i

e

A

ij

=

=

,

,    

( )

%

10

%

100

1

,

0

100

10

P

=

=

=

=

A

A

 

 

 

Przypomnienie wzorów z kombinatoryki: 

Liczba kombinacji





k

n

 (podzbiorów k elementowych zbioru  n-elementowego)  k z n

 

 

 

Liczba permutacji 

(możliwych wszystkich uporządkowań zbioru zbioru n elementowego): 

 

n! 

Liczba  wariacji  bez  powtórzeń

(

)

!

!

!

k

n

n

k

k

n

=





 

(uporządkowań  k  elementowych  wybranych  ze  zbioru  n-elementowego bez 

możliwości powtórzeń):   

 

Liczba wariacji z powtórzeniami

 

 

(uporządkowań  k-elementowych wybranych ze zbiorów n-elementowych z 

możliwością powtórzeń) :  

 

n

k

  

 

2. 

Jeżeli: 

{

}

( )

( )

=

=

=

=

1

2

1

1

,

,

2

,

1

0

P

,

,

i

i

i

P

i

oraz

Ω

ω

ω

ω

ω

.

 

(2.3) 

to P jest 

prawdopodobieństwem dyskretnym nieskończonym

 

3.  Definicja „nowoczesna” 

Dana niepusta rodzina F podzbiorów 

Ω spełniająca warunki: 

a) 

Jeśli: 

F

A

, to 

F

A

'

 

b) 

Jeśli 

,

2

,

1

=

i

F

A

i

, to 

F

A

i

i

 

 

nazywa się σ – ciałem

Jest  to  więc  niepusta  rodzina  zbiorów  (zdarzeń)  zamknięta  na  branie  dopełnień  i 

nieskończonych sum. W przypadku skończonego zbioru Ω, zwykle rozważanym σ ciałem jest  
rodzina wszystkich jego podzbiorów.  

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 5 

 

Funkcja rzeczywista P 

określona na podzbiorach przestrzeni Ω, tworzących σ ciało F 

mająca własności: 

Definicja 

a. 

( )

0

P

A

 

b. 

j

i

A

A

j

i

=

j

i,

 to 

=

=

=

1

1

)

(

P

)

(

P

i

i

i

i

A

A

 

c. 

( )

1

P

=

 

nazywa się prawdopodobieństwem. 

 

Trójka 

(Ω,F,P) – to przestrzeń probabilistyczna, a własności a, b, c, to aksjomaty 

prawdopodobieństwa

 

Łatwo wykazać, że definicje 1 i 2 są szczególnym przypadkiem definicji 3. 

a) 

Własności 

( ) ( )

B

A

B

A

P

P

 - 

monotoniczność 

b) 

( )

( )

A

A

P

1

'

P

=

( )

1

P

A

 

c) 

(

) ( ) ( ) (

)

B

A

B

A

B

A

+

=

P

P

P

P

 

d) 

( )

=

=

n

i

i

n

i

i

A

A

1

1

P

P

 - 

nierówność Boole’a 

Dowody pomijamy 

(zobacz piśmiennictwo) 

 

Rozważmy  doświadczenie  losowe  i  zwiążmy  z  nim  przestrzeń  (

Prawdopodobieństwo warunkowe 

,F

,P).  Jeśli 

interesuje nas wynik doświadczenia należącego do podzbioru 

B

, dla którego P(B)>0 to 

możemy zredukować wyjściową przestrzeń probabilistyczną do przestrzeni (B,  F

B

)

B

P

)

gdzie F

B

={

B

A

F

A

} oraz  

(

)

(

)

( )

F

A

dla

B

B

A

B

A

=

P

P

|

P

 

(2.4) 

Jest to prawdopodobieństwo warunkowe zdarzenia A pod warunkiem, że zaszło B lub 

krócej, 

prawdopodobieństwo A pod warunkiem B

Zauważmy, że wzór (2.4) jest równoważny zależności: 

(

) (

) ( )

B

P

B

A

B

A

=

|

P

P

 o ile 

( )

0

P

>

B

 

(2.5) 

Jeżeli  ciąg  zdarzeń 

Prawdopodobieństwo całkowite 

{

}

n

i

B

i

,...,

1

,

=

  tworzy 

zupełny  układ  zdarzeń  w przestrzeni  

 

(tzw. rozbicie przestrzeni

) tzn. spełnione są trzy warunki: 

n

i

i

B

1

=

=

, P(B

i

)>0 oraz  

Φ

B

B

j

i

j

i

=

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 6 

 

to dla dowolnego 

F

A

zachodzi: 

( )

(

) ( )

i

n

i

i

B

B

A

A

P

|

P

P

1

=

=

 

(2.6) 

Jest to wzór na prawdopodobieństwo całkowite. 

 

PRZYKŁAD  2.2 

Zadanie

„Podpatrzyliśmy”, że ktoś wpisuje trzyliterowe hasło do komputera korzystając tylko z klawiszy a oraz 

b. 

Ponadto zauważyliśmy, że pierwszy znak hasła jest  litera a. Jaka jest szansa, że trafimy wybierając jako drugą 

literę znak b i jako trzecią literę znak b ? 

 

(ilustrujące wzór na  prawdopodobieństwo warunkowe) 

 

Zadanie rozwiążemy na dwa sposoby.  

Rozwiązanie: 

1. 

Zauważmy, że:  

(

) (

) (

) (

) (

) (

) (

) (

)

{

}

b

b

b

a

b

b

b

a

b

a

a

b

b

b

a

a

b

a

b

a

a

a

a

a

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

,

=

 

(a) 

 
Rozważmy nową przestrzeń zdarzeń elementarnych 

(

) (

) (

) (

)

{

}

b

b

a

a

b

a

b

a

a

a

a

a

S

,

,

,

,

,

,

,

,

,

,

,

=

 i jej podzbiór 

zdarzenie 

(

)

{

}

b

b

a

D

S

,

,

=

. W takim razie: 

4

1

)

(

=

=

S

D

D

P

S

S

 

(b) 

2.  Wykorzystamy teraz wzór (2.4): 
 

4

1

8

4

8

1

)

(

)

(

)

(

=

=

=

S

P

S

D

P

S

D

P

S

 

(b) 

 A zatem wynik jest ten sam. 
 

 

 

PRZYKŁAD  2.3 

Zadanie

Student  na  zajęcia  dojeżdża  rowerem  raz  na  dwa  dni  (zdarzenie  R),  autobusem  raz  na  trzy  dni 

(zdarzenie A) oraz tramwa

jem  raz  na  sześć  dni  (zdarzenie  T).  Jeśli  jedzie  rowerem  spóźnia  się  raz  na  60 

przypadków,  jeśli  autobusem  raz  na  20  przypadków,  jeśli  tramwajem  raz  na  10  przypadków.  Jakie  jest 

prawdopodobieństwo spóźnienia się studenta (zdarzenie S)? 

 

prawdopodobieństwo całkowite) 

Drzewo modelu – dendryt. 

Rozwiązanie 

 

1/2 

1/3 

1/6 

1/60 

Z

 

Z

 

Z

 

1/20 

1/10 

R – rower 
A – autobus  
T – tramwaj 
 
S – 

spóźnienie 

Z – 

zdążenie  

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 7 

 

( ) (

) ( ) (

) ( ) (

) ( )

24

1

6

1

10

1

3

1

20

1

2

1

60

1

|

|

|

=

+

+

=

+

+

=

T

P

T

S

P

A

P

A

S

P

R

P

R

S

P

S

P

 

 

Przy założeniach poprzedniego twierdzenia dla dowolnego zdarzenie 

Wzór Bayesa 

F

A

 takiego, 

że 

( )

0

>

A

P

. Zachodzi:  

(

)

(

) ( )

(

) ( )

=

=

n

i

i

i

i

i

i

B

B

A

B

B

A

A

B

1

P

|

P

P

|

P

|

P

   

n

i

,...,

1

=

 

(2.7) 

 
Nomenklatura:  
P(B

i

|A) - 

prawdopodobieństwo a'posteriori

1

P(B

i

) - 

prawdopodobieństwo a'priori

  

2

 

 

Wzór  (2.7) 

nosi nazwę wzoru na prawdopodobieństwo przyczyny  

 

 

PRZYKŁAD  2.4 

Zadanie

W magazynie znajdują się monitory komputerowe wyprodukowane w trzech różnych oddziałach firmy, 

tym: 50% z oddziału w Polsce (R), 30% z oddziału w Chinach (C), 20% z oddziału w Japoni (J). Wiadomo, że 

prawdopodobieństwo  wyprodukowania  monitora  wadliwego  (plamki  na  ekranie)  jest  równe  0,05  dla  oddziału 
(R

)  i  (C)  oraz  0,12  dla  oddziału  w  (J).  Odbiór  odbywa  się  na  podstawie  kontroli  wyrywkowej.  Załóżmy,  że 

wylosowany  wyrywkowo  monitor  okazał  się  wadliwy,  jakie  jest  prawdopodobieństwo,  że  jest  to  monitor 
wyprodukowany w Polsce. 

  

a)  a’priori,  

Rozwiązanie 

A - monitor jest wadliwy: 

 P(R) = 0,5  

P(C) = 0,3  

P(J) = 0,2 

P(A|R) = 0,05 = P(A|C)   

P(A|J) = 0,12 

 

b)  a’posteriori: 

(

)

(

) ( )

(

) ( ) (

) ( ) (

) ( )

391

,

0

064

,

0

025

,

0

2

.

0

12

,

0

3

.

0

05

,

0

5

.

0

05

,

0

5

.

0

05

,

0

P

|

P

|

P

|

|

P

|

P

=

=

+

+

=

+

+

=

J

J

A

C

P

C

A

R

P

R

A

P

R

P

R

A

A

R

 

 

 

Niezależność zdarzeń 

Niech 

F

B

A

,

 

będą  zdarzeniami  takimi,  że  P(A|B) =P(A),  czyli  zajście  B  nie zmienia 

prawdopodobieństwa zajścia A. Czyli A jest niezależne, od B tzn: 

(

) ( ) ( )

B

P

A

B

A

=

P

P

   

 

(2.8) 

 

                                                           

1

 a'posteriori – 

na podstawie faktów, z następstwa,

 

2

 a'priori – 

bez zapoznania się z faktami, uprzedzając fakty, przed doświadczeniem, z góry. 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 8 

 

Uogólnienie: 

Niech  C 

będzie  dowolną  rodziną  zdarzeń.  Jeśli  dla  skończonej  podrodziny  {A

1

,A

2

,...,A

n

} 

zdarzeń z C spełniony jest warunek: 

( )

=

=

=

n

i

i

n

i

i

A

A

1

1

P

P

 

(2.9) 

 
to C nazywamy 

rodziną zdarzeń niezależnych.  

 
Uwaga:  

Niezależność wg wzoru (2.9) jest własnością silniejszą, niż niezależność parami. 

 

PRZYKŁAD  2.5 

Zadanie

Mamy  dużą  partię  uszkodzonych  dysków.    Dyski  są  uszkodzone  bo  ¼    z  nich  piszczy,  ¼    pracuje 

niestabilnie,  1/4   

się  grzeje  a  ¼    ma  wszystkie  wymienione  wady.  Niech:  A  zdarzenie,  że  pierwszy  losowo 

wybrany dysk piszczy a B i C, że pracuje niestabilnie lub się grzeje. Czy zdarzenia A, B i C stanowią rodzinę 

zdarzeń wzajemnie niezależnych?  

  

( ) ( ) ( )

2

1

P

P

P

=

=

=

C

B

A

Rozwiązanie 

 

(

) (

) (

)

4

1

P

P

P

=

=

=

C

B

C

A

B

A

 

(

) ( ) ( ) (

) ( ) ( ) (

) ( ) ( )

;

P

P

P

;

P

P

P

;

P

P

C

B

C

B

C

A

C

A

B

P

A

B

A

=

=

=

 

(

) ( ) ( ) ( )

8

1

P

P

P

P

4

1

=

=

C

B

A

C

B

A

 

Czyli zdarzenia AB i C 

nie stanowią rodziny zdarzeń wzajemnie niezależnych 

  

 
 
 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 9 

 

2  Zmienna losowa 

2.1  Zmienna losowa jednowymiarowa. 

 

Weźmy trojkę probabilistyczną (

,F

,P). Wprowadzimy definicję: 

Funkcję 

R

X:

Ω

  nazywamy 

zmienną  losową  jednowymiarową,  jeśli  dla 

każdego

R

a

  zbiór 

((

)

)

,

1

a

X

  jest zdarzeniem, czyli:

((

)

F

a

X

)

,

1

.  Realizacją 

zmiennej losowej nazywa się wartość funkcji X w punkcie i oznacza małą literą x

 

PRZYKŁAD  2.1 

Weźmy  dyski  komputerowe.  Losujemy  z  partii  jeden  i  sprawdzamy,  czy  jest  sprawny.  Jeśli  jest 

stawiamy 1 jeśli nie 0. 

Zadanie 

{

}

nsp

sp

ω

ω

,

=

Rozwiązanie 

,  a  zbiorem  wartości  jest  zbiór  {0,1}.  Zmienna  losowa  przyjmuje  wartość  z  pewnym 

prawdopodobieństwem. 

 

W przypadku pomiarów fizycznych 

obarczonych  błędem  przypadkowym  jako 

zmienną losową przyjmuje się wprost funkcję, której realizacjami są wyniki pomiaru. 

Rozkładem  zmiennej  losowej  X  nazywamy  funkcję  prawdopodobieństwa 

przyporządkowującą  zadanemu  przedziałowi 

(

)

x

,

 

wartości 

( )

{

}

(

)

x

X

<

ω

ω :

P

, gdzie P 

jest funkcją prawdopodobieństwa.  

 

PRZYKŁAD  2.2 

Zadanie

Dla danych z przykładu 2. zakładamy, że 

  

( )

8

,

0

P

=

sp

ω

 , 

( )

2

,

0

P

=

nsp

ω

. Należy określic rozkład zmiennej 

losowej. 

Rozkład zmiennej losowej X definiuje się więc według wzoru: 

Rozwiązanie 

(

)



<

<

=

<

x

gdy

x

gdy

x

gdy

x

X

1

1

1

0

2

,

0

0

0

P

 

 

• 

Zmienne  losowe  przyjmujące  tę  samą  wartość,  ale  z  różnym  prawdopodobieństwem 
(o 

różnych rozkładach) uważamy za różne. 

Uwagi 

•  W niek

tórych przypadkach wygodne jest posługiwanie się funkcją prawdopodobieństwa, 

któr

ą określa się na zbiorach punktowych w następujący sposób: 

( ) (

)

x

X

x

=

= P

P

 

(2.1) 

 

Funkcję taką nazywa się funkcją prawdopodobieństwa zmiennej losowej X

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 10 

 

2.2  Typy zmiennych losowych 

 

W klasycznych wykładach rachunku prawdopodobieństwa i statystyki wyróżniamy zwykle: 

1.  Zmienne losowe typu skokowego 

(dyskretną) (oznaczymy ten typ zmiennej SK) 

2.  Z

mienną losową typu ciągłego (albo w skrócie ciągłą) (oznaczymy ten typ zmiennej 

C)  

3.  Zmienne losowe mieszane 

 

Zmienna  typu  skokowego  (SK)

,...

3

,

2

,

1

=

i

x

i

 

przyjmuje  ściśle  określone,  dyskretne  wartości  liczbowe 

(może  być  skończone,  albo  nie),  czyli 

(

)

i

i

p

x

X

=

=

P

.  Z  własności 

prawdopodobieństwa 

1

1

=

=

n

i

i

p

 

dla  zmiennej  o  skończonej  liczbie  wartości,  oraz 

1

1

=

=

i

i

p

 

gdy ma nieskończoną liczbę wartości. 

Znając pary uporządkowane (x

i

, p

i

) 

mamy pełną informacje o rozkładzie zmiennej losowej 

skokowej. 

Funkcj

ę prawdopodobieństwa zmiennej losowej typu skokowego można zapisać w postaci: 

( )

(

)

=

=

=

=

poza

x

x

dla

p

x

X

x

i

i

i

0

P

P

 

(2.2) 

 

Zmienna losowa typu 

ciągłego (C) 

Mówimy, że zmienna losowa jest typu ciągłego jeżeli istnieje nieujemna funkcja 

( )

x

f

 

taka

, że 

( )

0

x

f

całka 

( )

1

=

R

x

f

 (lub 

( )

1

=

x

f

i dla każdego przedziału 

2

1

x

x

 

{

}

(

)

=

2

1

)

(

)

(

:

P

2

1

x

x

dx

x

f

x

X

x

ω

ω

 

(2.3) 

 

Dystrybuanta

Dla zmiennej losowej X jest to funkcja (zwyczajowo 

oznaczana dużą literą albo F

X

  

1

,

0

R

F:

 

taka, że:  

( ) (

)

x

X

x

F

<

= P

 

(2.4) 

 

 

Własności dystrybuanty: 

1. 

Dystrybuanta jest funkcją niemalejącą tzn: 

( )

( )

2

1

2

1

2

1

,

x

F

x

F

x

x

x

x

<

R

 

2. 

(

)

( )

( )

1

2

2

1

2

1

P

,

x

F

x

F

x

X

x

x

x

=

<

R

 

3. 

( )

( )

0

lim

1

lim

=

=

−∞

x

F

x

F

x

x

 

4. 

Jest funkcją co najmniej lewostronnie ciągłą 

( )

( )

0

0

lim

x

F

x

F

x

x

=

 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 11 

 

 

PRZYKŁAD  2.3 

Zadanie

Narysować wykres dystrybuanty zmiennej losowej (SK) z przykład

  

2.2 



<

<

=

x

gdy

x

gdy

x

gdy

x

F

1

1

1

0

2

,

0

0

0

)

(

Rozwiązanie 

 

 

 
Na ogół dystrybuanta nie jest w każdym punkcie ciągła prawostronnie, Różne zmienne 

losowe mogą tę samą dystrybuantę. Jeśli X jest zmienną losową typu ciągłego to dodatkowo 

zachodzą następujące własności dla dystrybuanty: 

5. 

( )

( )

0

0

0

lim

x

F

x

F

x

x

x

=

+

 

prawostronna ciągłość  

6. 

(

)

0

P

0

0

=

=

x

X

x

R

 

7. 

(

)

( )

=

=

2

1

)

(

)

(

P

,

1

2

2

1

2

1

x

x

x

F

x

F

dt

t

f

x

X

x

x

x

R

 

8. 

W  każdym  punkcie  ciągłości  gęstości  prawdopodobieństwa  f(x)  dystrybuanta F  jest 
różniczkowalna i 

( )

( )

x

f

dx

x

dF

=

  

Zwróćmy  uwagę,  że  z  uwagi  6  wynika,  że  fakt  iż  prawdopodobieństwo  zdarzenia jest 
równe zero nie oznacza, zdarzenie nie jest 

możliwe (nie może zajść). 

 

PRZYKŁAD  2.4 

Zadanie

Zmienna losowa (C) ma funkcję gęstości 

  

( )

=

poza

x

cx

x

f

0

1

0

3

   

Należy: 

1. 

Obliczyć stałą c  

2. 

Znaleźć dystrybuantę  

3. 

Narysować wykres gęstości i dystrybuanty 

4. 

Znaleźć 

2

1

2

1

P

x

 

F(x) 

0,2 

0,8 

0.2 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 12 

 

Ad 1. Ponieważ 

Rozwiązanie 

( )

1

=

R

x

f

 to: 

4

1

4

1

0

3

=

=

=

c

c

dx

cx

 

Ad 2. 

( )

( )

<

<

=

=

=

1

1

1

0

0

0

4

4

3

x

dla

x

dla

x

x

dla

dt

t

x

f

x

F

x

x

 

Ad 3. 

 

Ad 4. 

( )

( ) ( )

16

1

2

1

2

1

2

1

2

1

2

1

P

4

2

1

2

1

=

=

=

=

F

F

dx

x

f

X

 

F(x) 

f(x) 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 13 

 

3  Charakterystyki zmiennej losowej 

3.1  Charakterystyki liczbowe zmiennych losowych 

 

Rozkład  zmiennej  losowej  może  być  jednoznacznie  określony  przez  podanie 

prawdopodobieństwa  każdej  możliwej  wartości  zmiennej  losowej,  bądź  przez  podanie 
analitycznej postaci dyst

rybuanty  lub  gęstości  prawdopodobieństwa.  W  praktyce  zamiast 

pełnej  informacji  o  rozkładzie  prawdopodobieństwa  podaje  się  kilka  charakterystycznych 
parametrów, które 

opisują  własności  zmiennych  losowych.  Do  najważniejszych 

charakterystyk  należą  miary  położenia  i  miary  rozrzutu.  Do  miar  położenia  należą  wartość 
oczekiwana  i kwantyle
 

(w  szczególności  mediana  i  kwartale)  natomiast  do  miar  rozrzutu 

wariancja i odchylenie  standardowe

.  Ponadto  omówimy  pojęcia  momentów  zwykłych  i 

centralnych.   
Wartość oczekiwana ( inaczej nadzieja matematyczna, wartość przeciętna, wartość średnia) 
jest to 

liczba określona wzorem:  

( )

( )

( ) ( )

=

R

i

i

i

C

dx

x

xf

SK

p

x

X

E

 

(3.1) 

o ile szereg i całka są bezwzględnie zbieżne. 

W piśmiennictwie  wartość oczekiwaną zapisuje się EX, E[X] lub E(X). Przyjmiemy zapis 

E(X)

Uwaga  

W przypadku jeśli funkcja Y jest funkcją złożoną X tzn. Y = g(X) to wartość oczekiwaną 

oblicz się ze wzoru:  

( )

( )

[

]

( )

( )

( ) ( )

( )

=

=

R

i

i

i

C

dx

x

f

x

g

SK

p

x

g

X

g

Y

E

E

 

(3.2) 

 

PRZYKŁAD  3.1 

Dana jest zmienna losowa (SK) określona następująco (funkcja prawdopodobieństwa): 

Zadanie 

(

)



=

=

=

=

=

=

=

=

pozosta

ło

x

x

x

x

x

x

dla

x

X

P

i

0

4

;

3

;

5

;

4

;

1

;

2

6

1

6

5

4

3

2

1

 

Należy obliczyć wartość oczekiwaną zmiennej losowej X

( )

(

)

6

1

4

3

5

4

1

2

6

1

E

6

1

=

+

+

=

=

=

i

i

i

p

x

X

Rozwiązanie 

 

Wynik można interpretować następująco. 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 14 

 

Gramy  w  kości,  jeśli  wypadnie  1  to  dostajemy  2  zł,  jeśli  wypadnie  2  to  płacimy  1  zł,  jeśli  wypadnie  3  to 

dostajemy 4zł, itd. W grę gramy bardzo długo. Pytanie jaka jest średnia wygrana przypadająca na grę? 

(

)

6

1

6

4

3

5

4

1

2

6

=

=

+

+

n

n

n

n

 

 

PRZYKŁAD  3.2 

Podamy analogi

ę mechaniczną do wartości oczekiwanej. 

Zadanie 

Pytanie: 

Jakie jest położenie środka masy układu? 

 

Masa układu wynosi 

Rozwiązanie 

=

i

i

m

M

Więc położenie środka ciężkości można wyznaczyć jako:

i

i

i

c

i

i

i

c

x

M

m

x

x

m

x

M

=

=

 

Wyrażenie 

M

m

i

jest odpowiednikiem 

i

p

, bo 

1

=

i

i

M

m

 

 

 

Własności wartości oczekiwanej 

Ponieważ  wartość  oczekiwana  jest  określana  jako  suma  lub  całka,  to  ma  następujące 

własności: 

1)  gdy 

(

)

R

=

c

c

X

 to  

( ) ( )

c

c

X

=

= E

E

 

(3.3) 

 
2) 

Dla dowolnych stałych 

n

i

a

i

,...

2

,

1

=

∈ R

 

( )

i

n

i

i

n

i

i

i

X

a

X

a

E

E

1

1

=

=

=

 

(3.4) 

Momentem  zwykłym  rzędu 

Momenty zmiennej losowej 

(

)

N

k

k

  zmiennej losowej 

X

 

nazywamy  liczbę 

( )

k

k

X

m

E

=

 tzn.  

( )

( ) ( )

=

C

dx

x

f

x

SK

p

x

m

R

k

i

i

k

i

k

 

(3.5) 

j

eśli suma i całka istnieją 

m

1

 

m

2

 

m

3

 

x

1

 

x

2

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 15 

 

Dla 

( )

( )

X

X

m

k

E

E

1

1

1

=

=

=

 jest 

momentem rzędu pierwszego. Jest widoczne, że moment 

rzędu pierwszego jest wartością oczekiwaną. Czasem stosuje się oznaczenie 

µ

=

1

m

.  

Momentem centralnym 

rzędu k zmiennej losowej X nazywamy liczbę: 

( )

[

]

{

}

(

)

[

]

k

k

k

X

X

X

µ

µ

=

=

E

E

E

 

(3.6) 

Moment centralny rzędu 2,

2

µ

 

nazywamy wariancją i oznaczamy 

( )

X

2

D

, czasem 

( )

X

Var

Pierwiastek kwadratowy z wariancji nazywany odchyleniem standardowym i oznaczamy 

σ

( )

X

2

2

D

=

σ

 lub 

( )

X

2

D

=

σ

 

(3.7) 

Można zauważyć, że: 

( )

(

)

[

]

(

)

( )

( )

( )

2

1

2

2

2

2

2

2

2

2

E

E

2

E

2

E

E

D

m

m

X

X

X

X

X

X

k

=

+

=

=

+

=

=

=

=

µ

µ

µ

µ

µ

σ

µ

 

(3.8) 

 

Własności wariancji: 

1)  Gdy 

(

)

R

=

c

c

X

 to 

( )

( )

0

D

D

2

2

=

=

c

X

 

2) 

Jeżeli c jest dowolną stałą to 

( )

( )

X

c

cX

2

2

2

D

D

=

 

3) 

Jeśli

R

c

 to 

(

)

( )

X

c

X

2

2

D

D

=

+

 

(przesunięcie) 

 

(3.9) 

Wariancja i odchylenie standardowe są miarą rozproszenia zmiennej losowej. 

 

PRZYKŁAD  3.3 

W  teorii  niezawodności  i w teorii masowej  obsługi  stosuje  się  zmienne  losowe  o  rozkładzie 

wykładniczym. Są to zmienne losowe ciągłe o funkcji ciągłości określonej wzorem: 

Zadanie 

>

<

=

0

0

0

0

)

(

λ

λ

λ

i

x

e

x

x

f

x

 

Należy obliczyć wartość oczekiwaną i odchylenie standardowe zmiennej losowej o rozkładzie wykładniczym. 

Rozwiązanie 
Wartość oczekiwana

( )

( )

λ

λ

λ

λ

λ

λ

λ

λ

λ

1

1

lim

2

0

2

0

0

=

=





=

=

=

T

x

x

T

x

e

e

x

dx

xe

dx

x

xf

X

E

 

(całkowanie przez części) 

 

bo:  

f(x) 

λ 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 16 

 

x

x

x

x

x

x

e

e

x

dx

e

e

x

x

v

e

u

dx

xe

λ

λ

λ

λ

λ

λ

λ

λ

λ

λ

λ

=

=

=

=

=

2

1

 

 
Wariancja

( )

2

1

2

2

2

2

m

m

X

D

=

=

=

σ

µ

 

( )

( )

2

0

0

2

0

2

0

2

2

2

2

2

lim

λ

λ

λ

λ

λ

λ

λ

λ

=



+

=

=

=

=

dx

e

x

e

x

dx

e

x

dx

x

f

x

m

X

E

x

T

x

T

x

 

( )

2

2

2

2

1

2

2

2

2

1

1

2

λ

λ

λ

σ

µ

=

=

=

=

=

m

m

X

D

 

 

 

Kwantyle  

Liczbę 

(

)

1

0

<

p

x

p

  nazywamy kwantylem 

rzędu p zmiennej losowej X, gdy spełnione 

są następujące warunki: 

(

)

p

x

X

p

P

oraz 

(

)

p

x

X

p

1

P

 

(3.10) 

Nierówności  (3.10)  nie  wyznaczają  kwantyli  jednoznacznie.  Jeżeli  zmienna  losowa  jest 

ciągła, to kwantyl rzędu p można wyznaczyć z równania: 

( )

p

x

F

p

=

Kwantyl  rzędu  ½  nazywa  się  medianą,  a  k wan tyle  rzęd u  ¼  i  ¾  n azywa  się 

kwartylami (czasem kwarty

lami rzędu 1 i 3).  

 

Graficzna interpretacja kwantyli 

 

 

Pole równe p tzn. 

( )

(

)

p

p

x

X

P

p

x

F

=

=

 

Pole równe 1- p tzn. 

(

)

p

x

X

P

 

Rysunek  3.1  Graficzna interpretacja kwantyli 

 

 

 

f(x) 

x

p

 

Pole równe p 

Pole równe 1-p 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 17 

 

4  Zmienne losowe wielowymiarowe.  

4.1  Zmienna losowa dwuwymiarowa 

 

Niech dana będzie trójka probabilistyczną (

,F,P). Zmienna losowa dwuwymiarowa (lub 

inaczej dwuwymiarowy wektor losowy) jest to  

uporządkowana  para  zmiennych  losowych 

(X,Y) 

określona  na  przestrzeni  zdarzeń  elementarnych 

2

:

)

,

(

R

Y

X

. Zmienne X,  Y 

nazywa  się  składowymi  wektora  losowego.  Rozkład  prawdopodobieństwa  zmiennej 
dwuwymiarowej (X,Y) nazywa si

ę  łącznym  rozkładem  zmiennych  losowych,  a  rozkłady 

składowych wektora losowego nazywa się rozkładami brzegowymi.  

Zwykle rozpatrujemy zmienne losowe typu skokowego 

(dyskretne) i ciągłego. 

 

Zmienna losowa dwuwymiarowa typu skokowego 

Jest  to  zmienna  taka,  że  wszystkie  składowe  są  dyskretnymi  zmiennymi  losowymi  tzn 

funkcja prawdopodobieństwa jest określona wzorem:  

( )

( )

]

,

)

,

[(

P

,

P

y

x

Y

X

y

x

=

=

.

 

(4.1) 

Jeśli oznaczymy: 

(

)

(

)

],

,

,

[

P

k

i

ij

y

x

Y

X

p

=

=

 i,k=1,2,…

 

(4.2) 

 

to funkcj

ę prawdopodobieństwa określa się wzorem: 

( )

=

=

=

poza

y

y

i

x

x

p

y

x

j

i

ij

0

,

P

przy czym 

1

=

ij

ij

p

 

(4.3) 

 

Zmienna losowa dwuwymiarowa 

typu ciągłego  

Określa się ja na podstawie nieujemnej funkcji gęstości f(x,y) takiej, że:  
 

( )

0

,

y

x

f

 i 

( )

1

,

2

=

∫∫

R

y

x

f

 

(4.4) 

 
Dystrybuanta dwuwymiarowej zmiennej losowej jest to funkcja

1

,

0

:

2

R

F

taka, że:  

{

}

)

,

(

P

)

)

(

,

)

(

:

(

P

)

,

(

y

Y

x

X

y

Y

x

X

y

x

F

<

<

=

<

<

=

ω

ω

ω

   

(4.5) 

 

( )

}

{

}

{

( )

( )

( )




=

∫ ∫

∑ ∑

<

<

y

x

x

x

i

y

y

j

ij

C

dudv

v

u

f

SK

p

y

x

F

i

j

,

,

:

:

 

(4.6) 

Dla zmiennej losowej typu 

ciągłego zachodzą własności: 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 18 

 

1. 

(

)

( )

∫ ∫

=

d

c

b

a

dxdy

y

x

f

d

Y

c

b

X

a

,

,

P

 

2. 

( )

( )

y

x

f

y

x

y

x

F

F

xy

,

,

2

=

=

 tam, gdzie f(x,y) 

ciągła 

 

Rozkład brzegowy 

Rozkłady brzegowe  zmiennych  losowych  powstają  gdy  interesuje  nas  rozkład  jednej  ze 

składowych wektora losowego.  

Definicje dla zmiennej losowej skokowej: 

 

(

)

=

=

=

j

ij

i

i

p

p

x

X

P

 , 

(

)

=

=

=

i

ij

j

j

p

p

y

Y

P

 

(4.7) 

 

Dla dwuwymiarowej 

zmiennej losowej (X,Y) typu ciągłego definiuje się rozkłady brzegowe 

zmiennej 

za pomocą brzegowych gęstości prawdopodobieństwa: 

 

( )

( )

=

R

X

dy

y

x

f

x

f

,

  

(4.8) 

analogicznie 

( )

y

f

Y

( )

( )

=

R

Y

dx

y

x

f

y

f

,

 

(4.9) 

 

PRZYKŁAD  4.1 

Znaleźć rozkłady brzegowe zmiennej losowej dwuwymiarowej (SK) określonej poniższą tabelką. 

Zadanie 

Rozkłady brzegowe określono w ostatniej kolumnie i ostatnim wierszu tabeli. 

Rozwiązanie 

x

i

   

y

j

 

j

p

 

1/6 

1/6 

1/3 

1/6 

1/6 

1/3 

1/6 

1/6 

1/3 

i

p

 

1/3 

1/3 

1/3 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 19 

 

 

PRZYKŁAD  4.2 

Zmienna losowa dwuwymiarowa ciągła określona jest funkcją: 

Zadanie 

( )

>

=

poza

y

x

dla

e

y

x

f

y

x

0

0

,

,

 

Znaleźć rozkłady brzegowe zmiennych X i Y. 

( )

x

y

x

y

x

X

e

dy

e

e

dy

e

x

f

=

=

=

0

0

Rozwiązanie 

 

oraz przez symetrię: 

( )

y

y

x

Y

e

dx

e

y

f

=

=

0

 

 

PRZYKŁAD  4.3 

Dwuwymiarowa 

zmienna losowa ciągła ma funkcję gęstości: 

Zadanie 

( )



=

poza

D

y

x

dla

y

x

y

x

f

0

,

6

1

,

 

 

Należy wyznaczyć funkcje brzegowych gęstości prawdopodobieństwa: 

Opis obszaru: 

Rozwiązanie 

( )

(

)

{

}

x

y

i

x

y

x

D

1

6

0

1

0

:

,

:

 

albo 

( )

{

}

6

1

0

6

0

:

,

:

y

x

i

y

y

x

D

 

Obliczenie rozkładów brzegowych:  

 

( )

(

)

(

)

(

)

(

)

(

)

[

]

(

)

(

)

(

)

2

1

6

0

2

1

6
0

1

6

0

1

6

0

1

6

0

1

3

12

1

6

1

6

1

x

y

y

x

dy

y

dy

x

dy

y

x

x

f

x

x

x

x

x

X

=

=

=

=

 

( )

2

6

1

0

2

6

1

0

6

1

2

1

2

6

1

6

1

 −

=

 −

=

=

y

x

x

y

dx

y

x

y

f

y

y

Y

 

Wykresy rozkładów brzegowych: 

 

f

Y

(y) 

f

X

(x) 

½  

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 20 

 

 

 

Rozkłady warunkowe zmiennych losowych  

Są to rozkłady jednych ze składowych wektora losowego pod warunkiem, że druga przyjęła 

określoną wartość. 

Dla zmiennej losowej skokowej  

(

)

(

)

0

|

P

0

|

P

>

=

=

=

>

=

=

=

i

i

ij

i

j

j

j

ij

j

i

p

gdzie

p

p

x

X

y

Y

p

gdzie

p

p

y

Y

x

X

 

(4.10) 

Dla zmiennej losowej ciągłej  

(

)

(

)

( )

( )

(

)

(

)

( )

( )

0

,

|

0

,

|

0

0

0

0

0

0

0

0

>

=

=

>

=

=

x

f

x

f

y

x

f

x

X

y

f

y

f

y

f

y

x

f

y

Y

x

f

X

X

X

Y

Y

X

 

(4.11) 

 

PRZYKŁAD  4.4 

Wyznaczyć prawdopodobieństwa warunkowe  P(X=x

i

|Y=y

i

) 

dla zmiennych losowych z przykładu 

Zadanie 

4.1. 

 

Rozwiązanie 

x

i

   

y

i

 

1/2 

1/2 

1/2 

1/2 

1/2 

1/2 

Bo np. 

(

)

0

|

1

11

1

1

=

=

=

=

p

p

y

Y

x

X

P

 

         

(

)

2

1

|

1

21

1

2

=

=

=

=

p

p

x

X

y

Y

P

 

 

Zmienne losowe są niezależne (NZ) wtedy, gdy: 

Niezależność zmiennych losowych  

(

)

(

)

(

)

j

i

j

i

j

i

j

i

p

p

y

Y

x

X

y

Y

x

X

=

=

=

=

=

=

P

P

,

P

      (SK) 

( )

( ) ( )

y

f

x

f

y

x

f

Y

X

y

x

=

,

     (C) 

(4.12) 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 21 

 

 

PRZYKŁAD  4.5 

Zbadać niezależność zmiennych losowych z przykładu 

Zadanie 

4.1.  

Zmienne losowe nie są niezależne, bo np. dla i=j=2 mamy: 

Rozwiązanie 

0

22

=

p

 

3

1

;

3

1

2

2

=

=

p

p

 

22

2

2

0

9

1

3

1

3

1

p

p

p

=

=

=

 

 

 

PRZYKŁAD  4.6 

Do 

danych z przykład

Zadanie 

4.3 

sprawdzić, czy zmienne losowe są niezależne.  

Sprawdźmy dla 

Rozwiązanie 

2

1

=

x

1

=

y

 

3

1

6

1

2

1

1

1

,

2

1

=

=

f

 

( )

72

25

1

;

4

3

2

1

=

=

Y

X

f

f

 

( )

3

1

72

25

4

3

1

2

1

=

Y

X

f

f

  

Czyli:

  

( )

=

=

1

,

2

1

1

2

1

1

2

1

f

f

f

Y

X

y

x

 

 

 

Charakterystyki liczbowe zmiennej losowej dwuwymiarowej 

Moment  zwykły  rzędu  (k,l)  oznaczany  symbolem 

kl

m

,

  gdzie 

N

l

k

,

dwuwymiarowej 

zmiennej (X,Y) 

jest to liczba określona wzorem: 

( )

( )

( )

( )

( )

=

=

∑∑

C

dxdy

y

x

f

y

x

SK

p

y

x

Y

X

m

R

l

k

i

j

ij

l

j

k

i

l

k

kl

2

,

)

(

E

   

jeśli szereg i całka są zbieżne 

(4.13) 

Łatwo  zauważyć,  że  momenty  zwykłe  rzędu  (1,0)  oraz  (0,1)  są  to  średnie  rozkładów 
brzegowych 

Y

X

m

m

µ

µ

=

=

01

10

 

gdzie 

X

µ

średnia  rozkładu  brzegowego  zmiennej  X  i 

Y

µ

to 

średnia  rozkładu  brzegowego 

zmiennej Y. 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 22 

 

 

Moment centralny 

Moment centralny 

rzędu (k,l) gdzie 

N

l

k

,

 

jest to liczba określona następująco: 

(

) (

)

[

]

l

k

kl

m

Y

m

X

01

10

E

=

µ

 

(4.14) 

Momenty centralne 

rzędu  (2,0)  i  (0,2)  są  to  wariancje 

Uwaga  

2

2

,

Y

X

σ

σ

 

rozkładów brzegowych 

zmiennych losowych X i Y

Moment centralny rzędu (1,1) nazywa się kowariancją zmiennych losowych X i Y i oznacza 
Cov(X,Y) tzn: 

Kowariancja 

i współczynnik korelacji 

(

)(

)

[

]

01

10

11

E

)

,

(

Cov

m

Y

m

X

Y

X

=

=

µ

 

(4.15) 

 
Kowariancję można przedstawić  jako funkcję momentów zwykłych: 

(

)(

)

[

]

)

(

)

(

E

)

(

E

)

E(

E

)

,

(

Cov

01

10

11

01

10

10

01

01

10

Y

E

X

XY

m

m

m

m

m

Y

m

Xm

XY

m

Y

m

X

Y

X

=

=

=

+

=

=

 

(4.16) 

W wyprowadzeniu powyższych zależności wykorzystano własności wartości oczekiwanej. 

Zauważmy, że: 

X

X

X

2

D

)

,

(

Cov

=

 

(4.17) 

 
Prawdziwe jest następujące twierdzenie
Jeśli zmienne losowe są niezależne to E(XY)=E(X)E(Y) oraz 

0

)

,

(

Cov

=

Y

X

.  

Ale twierdzenie odwrotne nie jes

t prawdziwe. Ilustruje to poniższy przykład. 

 

PRZYKŁAD  4.7 

Dana jest dwuwymiarowa zmienna losowa typu skokowego, której rozkład łączny opisany jest tabelką: 

x

i

   

y

j

 

10 

j

p

 

0.2 

0.2 

0.4 

0.2 

0.2 

0.2 

0.2 

0.4 

i

p

 

0.4 

0.2 

0.4 

 

Obliczymy kowariancję. Kolejno: 

∑∑

=

=

=

=

3

1

3

1

11

16

i

j

ij

j

i

p

y

x

m

    

8

4

.

0

10

2

.

0

8

4

.

0

6

)

(

E

3

1

10

=

+

+

=

=

=

=

i

i

i

p

x

X

m

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 23 

 

2

4

.

0

3

2

.

0

2

4

.

0

1

)

(

E

3

1

01

=

+

+

=

=

=

=

j

j

j

p

y

Y

m

 

Zatem: 

0

8

2

16

)

,

(

Cov

01

10

11

=

=

=

m

m

m

Y

X

 

Ale zmienne nie są niezależne bo np.: 

0

21

=

p

 

oraz 

4

.

0

2

.

0

1

2

=

=

p

i

p

Jest widoczne, że 

1

2

21

p

p

p

 

 

 

Współczynnikiem korelacji zmiennych losowych X i Y oznaczanym  ρ

 

albo

 

XY

ρ

 

nazywamy 

liczbę: 

Y

X

02

20

11

)

,

(

Cov

σ

σ

µ

µ

µ

ρ

Y

X

=

=

 

(4.18) 

Czasem w 

rachunku  prawdopodobieństwa  wprowadza  się  pojęcie  zmiennych 

standaryzowanych zdefiniowanych wzorem: 

X

X

X

X

σ

µ

=

~

Y

Y

Y

Y

σ

µ

=

~

 

(4.19) 

Współczynnik korelacji można zdefiniować przy powyższych oznaczeniach następująco: 

)

~

,

~

(

Cov

)

,

(

Cov

Y

X

Y

X

Y

X

=

=

σ

σ

ρ

 

(4.20) 

 

 

Rysunek  4.1 

Przykładowe realizacje wektorów losowych dwuwymiarowych (X,Y) przy 

rożnych wartościach współczynnika korelacji pomiędzy składowymi. 

 
Współczynnik korelacji ma następujące własności: 

• 

1

ρ

(o ile istnieje) 

1

=

ρ

 

0

1

<

<

ρ

 

1

0

<

<

ρ

 

1

=

ρ

 

0

=

ρ

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 24 

 

• 

1

=

ρ

 wtedy i tylko wtedy gdy 

1

)

(

P

=

+

=

b

aX

Y

 

Z  drugiej  zależności  wynika,  że  współczynnik  korelacji  może  służyć  jako  miara  liniowej 

zależności zmiennych losowych X i Y. 

Znaczenie w

artości bezwzględnej i znaku współczynnika korelacji ilustruje rys. 4.1. 

Mówimy,  że  zmienne  losowe  są  nieskorelowane  jeśli 

0

=

ρ

 

oraz,  że  są  skorelowane 

w przeciwnym przypadku (o

czywiście to, że zmienne są nieskorelowane nie oznacza jeszcze, 

że są niezależne). 
Jeśli zmienne losowa Y jest funkcją liniową zmiennej X to prostą o równaniu: 

b

ax

y

+

=

 

(4.21) 

nazywamy 

prostą regresji

Jeśli nie jest spełniony warunek 

1

=

ρ

 

to znaczy, że nie zachodzi równość 

1

)

(

P

=

+

=

b

aX

Y

 

to  często  szukamy  takiej  funkcji  liniowej  aby  prawdopodobieństwo 

)

(

P

b

aX

Y

+

=

 

było 

możliwie duże. Zazwyczaj przyjmuje się jako kryterium tzw. oczekiwany kwadratowy błąd 
aproksymacji: 

]

)

-

-

E[(

2

b

aX

Y

e

=

 

(4.22) 

Wartości a i b, dla których e jest minimalne wyznaczają prostą nazywaną prostą regresji II 
rodzaju
.  
Można  pokazać,  że  współczynnik  korelacji  jest  miarą  dokładności,  z jaką  jedną  zmienną 

losową  Y  można  aproksymować  przez  liniową  funkcję  innej  zmiennej  losowej,  której 

współczynniki dobrano tak, aby błąd e był minimalny. Jeśli 

0

=

ρ

 

to błąd ten jest największy, 

je

śli natomiast 

1

=

ρ

 to jest najmniejszy. 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 25 

 

Typowe rozkłady zmiennych losowych 

5.1 

Rozkłady dyskretne 

5.1.1 

Rozkład dwupunktowy 

 

Zmienna losowa X ma 

rozkład  dwupunktowy,  gdy  jej  funkcja  prawdopodobieństwa  jest 

określona wzorem: 

(

)

=

=

=

=

=

poza

x

x

dla

p

q

x

x

dla

p

x

X

i

0

1

P

2

1

.

 

(5.1) 

Można  łatwo  pokazać,  że  dla  zmiennej  losowej  o  rozkładzie  dwupunktowym  średnia 

wariancja są równe: 

 

pq

x

x

X

q

x

p

x

X

2

1

2

2

2

1

)

(

)

(

D

)

(

E

=

+

=

 

(5.2) 

 

PRZYKŁAD  5.1 

 

Wyprowadzić wzory (5.2). 

Zgodnie z definicją: 

Rozwiązanie: 

pq

x

x

q

px

x

q

q

x

p

p

x

q

px

x

q

x

p

x

q

x

p

x

q

x

p

x

q

x

p

x

m

m

X

q

x

p

x

m

q

x

p

x

X

2

1

2

2

1

2

2

2

1

2

1

2

2

2

2

2

1

2

2

2

1

2

2

1

2

2

2

1

2

1

2

2

2

2

2

1

2

2

1

1

)

(

2

)

1

(

)

1

(

2

)

(

)

(

D

)

(

E

m

=

+

=

=

+

=

+

+

=

=

+

=

+

=

=

   

     (a) 

Gdyby 

w szczególności 

1

1

=

x

 i 

0

2

=

x

  to: 

p

X

=

)

(

E

 oraz 

pq

X

=

)

(

D

2

                                                                               (b)

 

 

 

W przypadku gdy x

1

=1 i x

2

=0 

podany rozkład nazywa się rozkładem zerojedynkowym i dla 

takiego rozkładu (jak pokazano w przykładzie 5.1: 

)

1

(

)

(

D

)

(

E

2

p

p

pq

X

p

X

=

=

=

 

(5.3) 

5.1.2 

Rozkład dwumianowy 

Zmienna typu dyskretnego ma 

rozkład dwumianowy z parametrami n i p (nazywany także 

rozkładem Bernoulliego) jeśli jej funkcja rozkładu ma postać: 

(

)

1

0

,

0

,

,

1

,

0

P

=

+

>

=





=

=

q

p

oraz

q

p

gdzie

poza

n

i

dla

q

p

i

n

i

X

i

n

i

 

(5.4) 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 26 

 

Średnia i wariancja dla tego rozkładu są równe: 

npq

X

np

X

=

=

)

(

D

)

(

E

2

 

(5.5) 

 
Wartości funkcji (5.4) oraz dystrybuanty: 

<

=

=

)

(

:

)

(

P

)

(

k

i

i

i

X

k

F

 

(5.6) 

można znaleźć bezpośrednio albo z odpowiednich tablic. 
W tablicach często podaje się tzw. ogon dystrybuanty: 

=





=

=

=

=

)

(

:

)

(

P

)

(

1

)

(

Q

k

i

i

n

k

i

i

n

i

q

p

i

n

i

X

k

F

k

 

(5.7) 

Na rysunku 5.1 

pokazano  funkcję  prawdopodobieństwa  rozkładu  dwumianowego 

odpowiednio dla p=0.1 i n=20 (rys. 5.1a) oraz p=0.5 i n=20 (rys. 5.1b) 

Zmienną  losową  o  rozkładzie  dwumianowym  można  interpretować  jako  liczbę  sukcesów 

(jedynek)  w  ciągu  niezależnych  doświadczeń  zwanych  próbami  Bernoulliego, w których 

prawdopodobieństwo  sukcesu  (jedynki)  jest  równe  p  a  prawdopodobieństwo  porażki  (zera) 
jest równe q=1-p. Zmienna losowa dwumianowa ma liczne zastosowania techniczne.  Jednym 
z nich jest kontrola 

wyrywkowa produktu, którego poszczególne próbki kwalifikuje się jako 

dobre albo niedobre. Z populacji o 

liczności N wybiera się próbkę liczności n, sprawdza się 

wszystkie sztuki w 

próbce i liczy się ile było sztuk niedobrych.  Jeśli spełnione są następujące 

założenia: 
• 

wybór do próbki pewnej sztuki nie zależy ani od tego czy sztuka jest dobra czy zła, 

•  wybór n

ie zależy od tego jakie sztuki wybrano poprzednio, 

• 

prawdopodobieństwo  wyboru  sztuki  niedobrej  nie  zmienia  się  wraz  z  wyborem 

(praktycznie  jest  tak  wtedy  jeśli  liczność  próbki  jest  dużo  mniejsza  od  liczności 
populacji). 
 
a)    

 

 

 

 

 

b) 

0

1

2

3

4

5

6

7

8

9

10

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

i

P

p=0.1 n=20

 

 

0

2

4

6

8

10

12

14

16

18

20

0

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

i

P

n=20  p=0.5

 

 

Rysunek  5.1 

Funkcja prawdopodobieństwa rozkładu dwumianowego a) dla n=20 i p=0.1 

 b) n=20 p=0.5  

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 27 

 

 

PRZYKŁAD  5.2 

 

Energia  pochodząca  z  określonego  źródła  ma  być  z  przerwami  zużywana  przez  pięciu  robotników.  Aby 

otrzymać  oszacowanie  zapotrzebowania  na  energię  zakładamy,  że  w  danej  chwili  prawdopodobieństwo  p 

zapotrzebowania na energię jest takie samo dla każdego z robotników, robotnicy pracują niezależnie od siebie 

oraz każdy z robotników korzysta z energii przez 12 minut na godzinę. 

Niech  X  oznacza  liczbę  robotników  korzystających  z  energii  w  danej  chwili.  Znaleźć  rozkład  zmiennej  X 

Obliczyć prawdopodobieństwo, że liczba robotników korzystających z energii w danej chwili jest nie większa 

niż 2. 

X ma rozkład dwumianowy z parametrami n=5 i p=12/60=0.2. W takim razie: 

Rozwiązanie 

33

.

0

8

.

0

)

0

(

5

=

=

X

P

                                                                         (a)

 

41

.

0

2

.

0

8

.

0

5

)

1

(

4

=

=

X

P

 

20

.

0

2

.

0

8

.

0

10

)

2

(

2

3

=

=

X

P

 

 

Prawdopodobieństwo, że liczba robotników korzystających z energii w danej chwili jest nie większa niż 2 jest 

równa sumie prawdopodobieństw: 
 

94

.

0

)

2

(

)

1

(

)

0

(

=

+

=

+

=

X

P

X

P

X

P

                                                                        (b)

 

 

 

5.1.3 

Rozkład Poissona 

Zmienna 

losowa ma rozkład Poissona (na cześć francuskiego matematyka Simeona Denisa 

Poissona (1781-

1840) z parametrem c gdy jej funkcja rozkładu dana jest wzorem: 

(

)

0

0

,

1

,

0

!

P

>



=

=

=

c

gdzie

poza

i

dla

e

i

c

i

X

c

i

 

(5.8) 

Jest  to  zmienna  o  przeliczalnej  liczbie  wartości.  Średnia  i  wariancja  dla  tego  rozkładu  są 
równe: 

c

X

c

X

=

=

)

(

D

)

(

E

2

 

(5.9) 

Dystrybuanta ma postać: 

c

k

i

i

k

i

i

e

i

c

i

X

k

F

=

<

=

=

=

1

0

)

(

:

!

)

(

P

)

(

 

(5.10) 

W tablicach często podaje się tzw. ogon dystrybuanty: 

)

(

1

)

(

Q

k

F

k

=

 

(5.11) 

Wykażemy  teraz  jaki  związek  ma  rozkład  Poissona  z  rozkładem  dwumianowym. 

Przypuśćmy,  że  zmienne  losowe 

,

,

2

1

X

X

mają  rozkład  dwumianowy  z  parametrami 

odpowiednio n i 

n

c

p

/

=

.  Można udowodnić, że ciąg funkcji prawdopodobieństwa: 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 28 

 

i

n

i

i

n

i

n

n

c

n

c

i

n

q

p

i

n

i

 −





=





==

1

)

(

P

 

(5.12) 

d

ąży dla każdego 

,

1

,

0

=

i

 do funkcji: 

c

i

e

i

c

i

=

!

)

(

P

 

(5.13) 

gdy 

n

 (i tym samym 

0

p

).  

A zatem zgodnie z powyższą uwagą można dla dużych n i małych p przybliżać dystrybuantę 

rozkładu  dwumianowego  przez  dystrybuantę  rozkładu  Poissona.  Innymi  słowy  rozkład 

Poissona jest asymptotyczną postacią rozkładu dwumianowego. 

Powyższa  własność  pozwala na korzystanie  z  rozkładu  Poissona  w  analogicznych 

przypadkach,  w  jakich  korzysta  się  z  rozkładu  dwumianowego,  ale  wtedy,  gdy  n  jest 

dostatecznie duże (orientacyjnie 

50

n

) i p 

dostatecznie małe (orientacyjnie p<0.1). 

Na rysunku 5.2 

pokazano funkcję prawdopodobieństwa rozkładu Poissona dla n=20 i c=10. 

Czytelni

k zechce porównać przedstawiony wykres z  wykresem funkcji prawdopodobieństwa 

na rys. 5.1b (Parametr c=np 

dla rozkładu dwumianowego). 

0

2

4

6

8

10

12

14

16

18

20

0

0.02

0.04

0.06

0.08

0.1

0.12

0.14

i

P

n=20 c=10

 

Rysunek  5.2 

Funkcja prawdopodobieństwa rozkładu Poissona dla n=20  i c=10       

 

PRZYKŁAD  5.3 

 
 

 

5.2 

Rozkłady zmiennych typu ciągłego 

 

Przedstawimy 

tutaj  kilka  najczęściej  spotykanych  rozkładów  zmiennych  losowych typu 

ciągłego.  Dwa  ostatnie  rozkłady  przedstawione  w  tym  rozdziale  –  rozkład  chi-kwadrat 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 29 

 

(

rozkład 

2

χ ) oraz rozkład t-Studenta znajdują przede wszystkim zastosowanie w statystyce 

matematycznej. 

5.2.1 

Rozkład jednostajny 

 

Zmienna losowa t

ypu ciągłego ma rozkład jednostajny (inaczej prostokątny, równomierny) 

przedziale <a,b> jeśli jego funkcja gęstości określona jest wzorem: 

(

)




>

<

=

=

b

x

dla

b

x

a

dla

a

b

a

x

dla

i

X

0

1

0

P

 

(5.14) 

Średnia i wariancja dla tego rozkładu są równe: 

12

)

(

)

(

D

2

)

(

E

2

2

a

b

X

b

a

X

=

+

=

 

(5.15) 

 

PRZYKŁAD  5.4 
 

Wyprowadzić wzór na wariancję (5.15) dla zmiennej losowej o rozkładzie jednostajnym. 
 

Obliczymy 

najpierw momenty zwykłe rzędu pierwszego (wartość oczekiwaną) i drugiego. 

Rozwiązanie: 

 

3

3

1

3

1

2

2

1

2

1

)

(

E

2

2

3

3

3

2

2

2

2

2

1

b

ab

a

a

b

a

b

x

a

b

dx

a

b

x

m

b

a

a

b

a

b

x

a

b

dx

a

b

x

X

m

b

a

b

a

b

a

b

a

+

+

=

=

=

=

+

=

=

=

=

=

 

Wariancję można obliczyć wykorzystując wzór (3.8).  

12

)

(

2

3

)

(

D

2

2

2

2

2

1

2

2

a

b

b

a

b

ab

a

m

m

X

=

 +

+

+

=

=

 

 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 30 

 

0

2

4

6

8

10

0

0.05

0.1

0.15

0.2

0.25

0.3

x

f(

x)

 

Rysunek  5.3 

Funkcje gęstości rozkładu jednostajnego (dla a=2 i b=8)      

5.2.2 

Rozkład normalny 

Zmienna losowa typu ciągłego ma rozkład normalny (zwany także rozkładem Gaussa) jeśli 
jego f

unkcja gęstości określona jest wzorem: 

( )

0

2

1

2

2

2

/

)

(

>

=

σ

π

σ

σ

µ

x

e

x

f

 

(5.16) 

Średnia i wariancja dla tego rozkładu są równe: 

2

2

)

(

D

)

(

E

σ

µ

=

=

X

X

 

(5.17) 

gdzie 

µ  jest średnią a 

σ

 odchyleniem standardowym. 

-8

-6

-4

-2

0

2

4

6

8

10

12

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

y

f(y

)

 

 

sig=1
sig=2
sig=4

 

Rysunek  5.4 

Funkcje gęstości rozkładu normalnego N(2,1), N(2,2), N(2,4)      

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 31 

 

Wykres  funkcji  (5.16)  dla 

średniej 

2

=

µ

 

pokazano na rys.  5.4. 

Popularnym  i  łatwo 

zrozumiałym skrótem dla zmiennej o rozkładzie normalnym jest N(

)

,

σ

µ

. Rozkład normalny 

ma  duże  znaczenie  teoretyczne  ponieważ  można  dowieść  (będzie  mowa  o  tym  w  dalszej 

części skryptu), że rozkład  sum różnych zmiennych losowych dąży, do przy bardzo słabych 

warunkach, do rozkładu normalnego, gdy liczba składników rośnie nieograniczenie.  
Należy zauważyć, że funkcja gęstości jest funkcją symetryczna względem prostej o równaniu 

µ

=

x

 to znaczy prostej 

prostopadłej do osi x i przechodzącej przez punkt o odciętej równej 

µ tzn: 

)

(

)

(

µ

µ

+

=

x

f

x

f

 

(5.18) 

Gęstość osiąga maksimum dla 

µ

=

x

 równe: 

σ

π

σ

4

.

0

2

1

 

(5.19) 

Podobnie dla dystrybuanty zmiennej losowej o rozkładzie normalnym spełniony jest warunek: 

 

1

)

(

)

(

=

+

+

µ

µ

x

F

x

F

 

(5.20) 

Wartości  dystrybuanty  rozkładu  normalnego  najczęściej  odczytuje  się  z  tablic.  Przed 

odczytem  z  tablic  zmienną  losową  przekształca  się  na  najpierw  do  postaci  zmiennej 
standaryzowanej (por. wzór (4.19)) poprzez podstawienie: 

σ

µ

=

X

Y

 

(5.21) 

Jak  wiadomo  zmienna  standaryzowana  ma  średnią  0  i  odchylenie  standardowe  równe  1. 
Zmienna (5.21) 

ma zatem rozkład normalny N(

)

1

,

0

. Gęstość tego rozkładu ma postać: 

( )

2

/

2

2

1

y

e

y

=

π

ϕ

 

(5.22) 

Dystrybuantę zmiennej losowej Y oznacza się zwykle 

Φ

. Podstawienie (5.21) wykorzystuje 

się  przy  odczycie  z  tablic  wartości  dystrybuanty  zmiennej  o  rozkładzie  normalnym. 

Pokażemy to na przykładach. 

 

PRZYKŁAD  5.5 

Niech zmienna losowa X ma rozkład N(47,2). Należy znaleźć P(X<44.5) 
 

Możemy zapisać ciąg przekształceń pamiętając, że z tablic możemy odczytać wartości dystrybuanty jedynie dla 

rozkładu N(0,1). 

Rozwiązanie: 

Zgodnie z definicją: 

(

)

25

.

1

P

2

47

5

.

44

2

47

P

)

5

.

44

(

P

<

=

<

=

<

Y

X

X

 

 

 

 

(a) 

Ponieważ zmienna Y więc poszukiwane prawdopodobieństwo jest równe 

).

25

.

1

(

Φ

 

W tablicach znajdują się 

wartości  dystrybuanty  dla  współrzędnych  dodatnich  więc  nie  możemy  odczytać  powyższej  wartości 

bezpośrednio. Biorąc jednak pod uwagę wzór (5.20) dla zmiennej o rozkładzie N(0,1)  otrzymujemy: 

)

(

1

)

(

1

)

(

)

(

x

x

x

x

Φ

=

Φ

=

Φ

+

Φ

 

 

(b) 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 32 

 

Dla danych zadania: 

              

)

25

.

1

(

1

)

25

.

1

(

Φ

=

Φ

 

 

(c) 

Z tablic odczytujemy 

89430

.

0

)

25

.

1

(

=

Φ

Ostatecznie: 

              

106

.

0

89430

.

0

1

)

25

.

1

(

1

)

5

.

44

(

=

Φ

=

<

X

P

 

     

 

(d) 

 

PRZYKŁAD  5.6 
Z

mienna losowa X ma rozkład N(47,2). Należy znaleźć P(44.5<X<48) 

Wykonujemy ciąg przekształceń podobnie jak w przykładzie 

Rozwiązanie: 

(5.4) i otrzymujemy: 

(

)

)

25

.

1

(

)

5

.

0

(

5

.

0

25

.

1

P

2

47

48

2

47

2

47

5

.

44

P

)

48

5

.

44

(

P

Φ

Φ

=

<

<

=

<

<

=

<

<

Y

X

X

  

(a) 

Wartości  dystrybuant  odczytujemy  z  tablic  wykonując  po  drodze  przekształcenie  (c)  z  przykładu  (5.4) 

10565

.

0

)

25

.

1

(

=

Φ

 oraz 

69146

.

0

)

5

.

0

(

=

Φ

 

586

.

0

105650

.

0

69146

.

0

)

25

.

1

(

)

5

.

0

(

)

48

5

.

44

(

P

=

=

Φ

Φ

=

<

X

   

 

(b) 

 

               

     

 

 

 

PRZYKŁAD  5.7 

Należy znaleźć taką wartość x, że P(X<x)=0.95 

Dokonuje

my przekształcenia jak w powyższych przykładach: 

Rozwiązanie: 

95

.

0

)

2

47

(

2

47

2

47

P

)

(

P

=

Φ

=

<

=

<

x

x

X

x

X

 

                    

(a) 

Oznacza  to,  że  liczba 

2

47

x

 

jest  kwantylem  rządu  0.95  zmiennej  losowej  N(0,1)  (porównaj wzór (3.10)  

rysune

3.1

. 

Z tablic odczytujemy, że kwantyl rzędu 0.95 rozkładu N(0,1) jest równy 1.644854. W takim razie: 

50.3

x

zatem

,

644854

.

1

2

47

=

=

x

                   

                          (b) 

                 

 

5.2.3 

Rozkład chi-kwadrat 

 

W  statystyce  mamy  często  do  czynienia  z  ciągami  niezależnych  zmiennych  losowych 

,

,

2

1

X

X

o  jednakowych  rozkładach.  Duże  znaczenie  maja  zmienne  losowe  będące  sumą 

takich zmiennych losowych.  
Rozkładem 

2

χ  o r stopniach swobody nazywamy rozkład zmiennej losowej, która jest sumą 

r 

niezależnych zmiennych losowych X

i

, z których każda ma standardowy rozkład normalny 

N(0,1): 

=

=

r

i

i

X

Y

1

2

 

(5.23) 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 33 

 

Można pokazać, że funkcja gęstości zmiennej losowej (5.23) ma postać: 



Γ

=

tym

poza

e

x

r

x

dla

x

f

y

r

r

r

2

/

1

2

/

2

/

)

2

/

(

2

1

0

0

)

(

 

(5.24) 

Parametr 

występujący we wzorze (5.24) nazywa się liczbą stopni swobody natomiast symbol 

Γ   przedstawia 

tzw.  funkcję  Eulera  (nie  będziemy  tutaj  przedstawiać  jej definicji – 

zainteresowany  czytelnik  może  znaleźć  ją  w  licznych  podręcznikach).  Na rys. 5.5 
przedstawiono wykres funkcji gęstości rozkładu 

2

χ  dla różnych liczb stopni swobody. 

Dla  r

=1  zmienna  losowa  o  rozkładzie 

2

χ   jest kwadratem pojedynczej zmiennej losowej 

rozkładzie N(0,1).  Średnia i wariancja dla tego rozkładu z r stopniami swobody są równe: 

r

r

2

)

(

D

)

(

E

2

2

2

=

=

χ

χ

 

(5.25) 

 

  

Tablica dystrybuant zmiennej losowej o rozkładzie

2

χ  podaje wartości: 

)

(

)

(

F

x

P

x

r

r

<

=

χ

 

(5.26) 

Wynika  stąd,  że  wartości  dystrybuanty  odczytuje  się  w  funkcji  bieżącej  zmiennej  x  oraz 
liczby stopni swobody r

 

0

5

10

15

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

y

f(y

)

 

 

r=1
r=2
r=6

 

Rysunek  5.5 

Funkcje gęstości rozkładu 

2

χ  dla różnych liczb stopni swobody r.      

W  zastosowaniach  ważne  jest  wyznaczenie  kwantyli  rozkładu 

2

χ .  W niektórych tablicach 

wartości kwantyli rozkładu 

2

χ  podane są wprost natomiast w innych podaje się wartości tzw. 

wartości krytycznych 

)

,

(

2

r

α

χ

. Wartości krytyczne definiuje się wzorem: 

α

α

χ

χ

=

>

)]

,

(

[

P

r

r

 

(5.27) 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 34 

 

Z definicji (5.27) 

wynika,  że  wartość  krytyczna 

)

,

(

2

r

α

χ

 

jest  kwantylem  rzędu 

α

1

 

rozkładu 

2

χ  o r stopniach swobody. 

5.2.4 

Rozkład t Studenta 

Niech  dany  będzie  ciąg  niezależnych  zmiennych  losowych 

n

X

X

X

,

,

,

2

1

o jednakowym 

rozkładzie normalnym 

)

,

(

σ

µ

N

Tworzymy funkcję zmiennych losowych: 

=

=

n

i

i

X

n

X

1

1

=

=

n

i

i

X

X

n

S

1

2

2

)

(

1

 

           

(5.28) 

oraz zmienną losową: 

1

=

n

S

X

t

µ

 

(5.29) 

Można dowieść, że zmienna losowa ma funkcję gęstości określoną wzorem: 

2

1

2

1

2

2

1

1

)

(

+





+

Γ

 +

Γ

=

r

r

r

t

r

r

r

t

f

π

 

(5.30) 

gdzie 

Γ   przedstawia 

funkcję  Eulera.  Rozkład  zmiennej  losowej  zdefiniowanej  powyżej 

nazywa  się  rozkładem  t  Studenta.  Można  udowodnić,  że  wykres  gęstości  zmiennej  t  jest 
symetryczny 

względem osi rzędnych. Zmienna ta jest asymptotycznie normalna tzn. gęstość 

określona  wzorem  (5.30)  dąży  do  gęstości  rozkładu  normalnego 

)

1

,

0

(

N

gdy liczba stopni 

swobody wzrasta nieograniczenie.  

Można to zapisać równaniem: 

2

/

2

2

1

)

(

lim

t

r

r

e

t

f

=

π

 

(5.31) 

Zbieżność ta jest szybka. Na rysunku 5.6 pokazano wykres gęstości rozkładu t Studenta dla 
r=7 stopni swobody 

oraz rozkładu normalnego N(0,1). Jak widać przebieg obu krzywych jest 

zbliżony. 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 35 

 

-4

-3

-2

-1

0

1

2

3

4

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

t

f(

t)

 

 

t Student r=7
N(0,1)

 

Rysunek  5.6         

Funkcja gęstości dla rozkładu t Studenta dla  r=7 stopni swobody i rozkład 

normalny N(0,1). 

Gęstość rozkładu Studenta bywa rzadko wykorzystywana w praktyce. Najczęściej operuje się 

wartością  krytyczną  t(p,r).  Wartość  krytyczna  rozkładu  t  Studenta  jest  to  liczba  t(p,r) 
zdefiniowana wzorem: 

[

]

p

r

p

t

t

P

r

=

>

)

,

(

 

(5.32) 

Z  definicji  (5.32) 

wynika,  że wartość krytyczna  t(p,r) jest kwantylem rzędu  1-p/2 rozkładu 

Studenta o r  stopniach swobody

.  Ponieważ  rozkład  t  Studenta  może  być  dla  dużych  r 

aproksymowany rozkładem normalnym to w obliczeniach praktycznych często zamiast tablic 

rozkładu  Studenta  używa  się  tablic  rozkładu  N(0,1) (zwykle przy liczbie stopni swobody 

przewyższającej 20). 

5.3 

Addytywność rodziny zmiennych losowych. 

 
Mówimy,  że  rodzina  zmiennych  losowych  jest  addytywna,  jeśli  suma  niezależnych 

zmiennych  losowych  należących  do  tej  rodziny  także  należy  do  tej  rodziny.  Badanie 

addytywności  wymaga  wprowadzenia  nowego  pojęcia  tzw.  funkcji  charakterystycznych 

czego jednak robić nie będziemy.  
Można  wskazać  przykład  rodzin  zmiennych  losowych  addytywnych.  Na  przykład  rodzina 

niezależnych  zmiennych  losowych  o  rozkładzie  dwumianowym,  jest  addytywna.  Jeśli 

zmienne losowe o takim rozkładzie mają parametry n

i

  

(mogą być różne) oraz (jednakowe 

dla  wszystkich  składników)  to suma takich zmiennych  ma  także  rozkład  dwumianowy 
z parametrami 

i

i

p

n

)

,

(

.  Podobnie 

addytywna  jest  rodzina  niezależnych  zmiennych 

rozkładzie  Poissona.  Suma  k  takich zmiennych z parametrami c

i 

(i=1,2,…,k

)  ma  rozkład 

Poissona z parametrem 

i

i

(

parametry te nie muszą być jednakowe).  

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 36 

 

Szczególne  własności  ma  rodzina  niezależnych  zmiennych losowych  o  rozkładach 

normalnych.  Jeśli bowiem zmienna losowa X

i

 (i=1,2,…,n) 

ma rozkład 

)

,

(

i

i

N

σ

µ

 to zmienna 

losowa postaci 

=

=

n

i

i

i

X

k

X

1

 ma 

rozkład normalny z parametrami 

( )

)

,

(

1

2

1

=

=

n

i

i

i

n

i

i

i

k

k

N

σ

µ

 

W  szczególnym  przypadku,  jeśli  zmienne  losowe  mają  rozkłady 

)

,

(

:

1

1

1

σ

µ

N

X

  oraz 

)

,

(

:

2

2

2

σ

µ

N

X

 to suma i ró

żnica zmiennych mają odpowiednio rozkłady: 

)

,

(

:

2

2

2

1

2

1

2

1

σ

σ

µ

µ

+

+

+

N

X

X

 

(5.33) 

 

   

)

,

(

:

2

2

2

1

2

1

2

1

σ

σ

µ

µ

+

N

X

X

 

(5.34) 

 

   

 

PRZYKŁAD  5.8 

Średnica  wałka  i  średnica  otworu  są  niezależnymi  zmiennymi  losowymi  normalnymi,  z  jednakowymi 

odchyleniami  standardowymi  równymi  0.02.  Średnia  różnica  średnic  jest  równa  0.06.  Jakie  jest 

prawdopodobieństwo, że wałek nie wejdzie do otworu ? 

Średnica  otworu  X: 

Rozwiązanie: 

)

02

.

0

,

(d

N

średnica  wałka  Y: 

)

02

.

0

,

06

.

0

(

d

N

.  L=X-

Y  ma  rozkład  z  parametrami 

)

0282

.

0

,

06

.

0

(

)

02

.

0

02

.

0

,

06

.

0

(

:

2

2

N

N

L

=

+

 

017

.

0

983

.

0

1

13

.

2

0282

.

0

06

.

0

P

0282

.

0

06

.

0

0

0282

.

0

06

.

0

P

)

0

(

P

=

=

<

=

<

=

<

L

L

L

   

(a) 

                 

 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 37 

 

6  Twierdzenia graniczne 

6.1 

Nierówność Czebyszewa 

 

Nierówność Czebyszewa daje ilościowe oszacowanie zjawiska polegającego na grupowaniu 

się wartości zmiennej losowej wokół jej wartości oczekiwanej. 

Jeżeli X jest zmienna losową mającą skończona wartość oczekiwaną   µ  i wariancję 

0

2

>

σ

 

to dla dowolnego t>0 zachodzi nierówność: 
 

2

1

)

-

X

P(

t

t

σ

µ

 

(6.1) 

 
Nierówność  Czebyszewa  obejmuje  rozkłady  wszystkich  typów  o  ile  spełniają  wspomniane 

twierdzeniu bardzo ogólne założenia. 

Dla  rozkładów  ciągłych,  których  gęstość  prawdopodobieństwa  ma  tylko  jedno  maksimum 

lokalna  (rozkłady  jednomodalne)  i  jest  symetryczna,  zachodzi  (przy  dodatkowych 

informacjach o rozkładzie zmiennej losowej) lepsze oszacowanie Gaussa: 
  

2

9

4

)

-

X

P(

t

t

σ

µ

 

(6.2) 

 
W  praktyce  mamy  do  czynienia  na  ogół  ze  zmiennymi  losowymi,  które  za  bardzo  małym 
prawdopodobieństwem przyjmują wartości spoza przedziału  

σ

µ

σ

µ

3

,

3

-

+

. Dlatego, gdy 

nieznany  jest  rozkład  zmiennej  losowej,  a  znane  są  tylko  parametry  jej  rozkładu  µ   i  σ , 
pomija  się  możliwość  przyjęcia  przez  zmienną  losową  wartości  spoza  przedziału 

σ

µ

σ

µ

3

,

3

-

+

.  Postępowanie  takie  przyjęto  nazywać  postępowaniem  zgodnym  z  prawem 

trzech sigm. 

 

PRZYKŁAD  6.9 
 
Nal

eży oszacować 

)

3

)

-

X

P(

σ

µ

 

dla rozkładu N(0,1)

 

korzy

stając kolejno z nierówności Czebyszewa (6.1), 

następnie z nierówności (6.2) i z tablic rozkładu normalnego. 
 

 

Rozwiązanie: 

Z nierówności Czebyszewa: 

111

.

0

9

1

)

3

)

-

X

P(

µ

 

 
z nierówności Gaussa: 

049

.

0

9

9

4

)

3

)

-

X

P(

µ

 

z tablic: 

0027

.

0

)

99865

.

0

1

(

2

))

3

(

1

(

2

3

)

-

X

P(

=

=

Φ

=

µ

 

 

Jest widoczne, że najgrubsze przybliżenie pochodzi od nierówności Czebyszewa i jest ok. 50 razy większe od 

oszacowania dokładnego. 
 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 38 

 

 

PRZYKŁAD  6.10 
 

Nal

eży oszacować zilustrowac prawo trzech sigm na przykładzie zmiennej o rozkładzie N(0,1)

 .

 

 

Rozwiązanie: 

z tablic: 

997

.

0

1

99865

.

0

2

1

)

3

(

2

))

3

(

1

(

)

3

(

)

3

(

)

3

(

3)

X)

P(

=

=

Φ

=

Φ

Φ

=

Φ

Φ

=

 

 

A zatem jeśli przyjmiemy, że zmienna losowa ma rozkład normalny to prawdopodobieństwo tego, że zmienna 

losowa przyjmie wartości spoza przedziału trzech sigm jest mniejsze od 0.3%. 

 

6.2  Twierdzenia graniczne 

 
Twierdzenia 

graniczne 

dotyczą 

własności 

ciągów 

zmiennych 

losowych  

,...

,...,

,

2

1

n

X

X

X

Twierdzenia graniczne można połączyć w grupy: 

• 

twierdzeń  granicznych  lokalnych  dotyczących  zbieżności  ciągu 

funkcji 

prawdopodobieństwa  zmiennych  losowych  dyskretnych  oraz  zbieżności  ciągu  gęstości 

prawdopodobieństwa zmiennych losowych ciągłych, 

• 

twierdzeń  granicznych  integralnych  dotyczących  zbieżności  ciągu  dystrybuant  ciągu 
zmiennych losowych. 
 

Twierdzenia integralne 

dotyczące  ciągu  niezależnych  zmiennych  losowych nazywamy 

centralnymi. 
Tutaj  ograniczymy  się  do  omówienia  dwóch  ważniejszych  centralnych  twierdzeń 
granicznych. 
 
Twierdzenie (centralne graniczne) Lindeberga-Levy’ego (CTG LL) 
 

Jeżeli  

,...,

,

2

1

X

X

 

są niezależnymi zmiennymi losowymi o tym samym rozkładzie mającym 

wartość  oczekiwaną  µ   i standardowe odchylenie 

0

σ

 

to  ciąg  dystrybuant   

)

(

N

n

F

n

 

zmiennych losowych: 
 

n

n

X

n

X

Y

n

i

i

n

i

i

n

σ

µ

σ

µ

=

=

=

=

1

1

)

(

 

(6.3) 

 

spełnia dla każdego 

R

y

 warunek: 

 

du

e

y

F

y

u

n

n

=

2

/

2

2

1

)

(

lim

π

 

(6.4) 

 
Oznacza to 

innymi słowy, że ciąg zmiennych losowych (6.3) jest zbieżny według dystrybuant 

do zmiennej losowej o rozkładzie normalnym 

N(0,1). Jeżeli zachodzi wzór (6.4) to mówimy, 

że zmienna losowa 

=

n

i

i

X

1

 ma 

rozkład asymptotycznie normalny N( µ

n

,

n

σ

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 39 

 

Z twierdzenia LL wynika, że: 
 

)

(

)

(

)

(

lim

1

2

2

1

y

y

y

Y

y

P

n

Φ

Φ

=

<

<

 

(6.5) 

 

Możemy zatem uznać, że dla dostatecznie dużego n zachodzi: 
 

)

(

)

(

)

(

lim

1

n

n

a

n

n

b

b

X

a

P

n

i

i

n

σ

µ

σ

µ

Φ

Φ

=

<

<

=

 

(6.6) 

 
gdzie a i b 

są pewnymi stałymi. 

Ważnym wnioskiem z CTG jest także to, że średnia arytmetyczna niezależnych zmiennych 

losowych o jednakowych rozkładach nawet znacznie różniących się od siebie, jest z dobrym 
przybliżeniem  normalna.  Jeśli  bowiem,  zgodnie  z  powyższym 

=

n

i

i

X

1

  ma 

rozkład 

asymptotycznie normalny 

N( µ

n

,

n

σ

) to 

n

X

n

i

i

=1

 

ma rozkład N( µ ,

n

/

σ

 

Sformułujemy teraz nieco ogólniejsze CTG: 
 
Twierdzenie (centralne graniczne) Lindeberga-Fellera (CTG LF)  (1922,1937) 
 
Niech 

,...,

,

2

1

X

X

 

będą  niezależnymi  zmiennymi  losowymi  niekoniecznie  o  tym  samym 

rozkładzie  mającymi  wartości  oczekiwane 

i

i

X

µ

=

)

(

E

  i wariancje 

2

i

σ .  Tworzymy  zmienną 

losową: 

=

=

=

n

i

i

n

i

i

i

n

X

Y

1

2

1

)

(

σ

µ

 

(6.7) 

 

Okazuje  się,  że  przy  bardzo  słabych  założeniach  co  do  zmiennych  losowych  X

i 

ciąg 

dystrybuant  

)

(

N

n

F

n

 zmiennych losowych Y

n

 

spełnia dla każdego 

R

y

 warunek: 

 

)

(

2

1

)

(

lim

2

/

2

y

du

e

y

F

y

u

n

n

Φ

=

=

π

 

(6.8) 

 
Oznacza to 

innymi słowy, że ciąg zmiennych losowych  jest zbieżny według dystrybuant do 

zmiennej losowej o r

ozkładzie normalnym N(0,1). Jeżeli zachodzi wzór (6.8) to mówimy, że 

zmienna losowa 

=

n

i

i

X

1

 ma 

rozkład asymptotycznie normalny

Podobna zależność zachodzi dla kwantyli zmiennej losowej (6.7). Jeśli założymy, że istnieje i 

jest zdefiniowany jednoznacznie kwantyl rzędu  α  zmiennej losowej 

n

Y

  - 

)

(

α

n

y

  to wtedy 

także zachodzi: 
 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 40 

 

)

(

)

(

lim

α

α

y

y

n

n

=

 

(6.9) 

 
gdzie 

)

(

α

y

 

jest kwantylem rzędu α zmiennej losowej o rozkładzie N(0,1). 

 
W  powyższym  twierdzeniu  nie  sformułowaliśmy  założeń  twierdzenia.  Zwykle  założenia  te 

formułuje się w formie  warunku wystarczającego tzw. warunku Lindeberga. Nie będziemy 

tutaj formułować tego warunku. Ograniczymy się do stwierdzenia, że nakłada on ograniczenie 

aby wpływ każdego ze składników 

i

i

X

µ

 

na unormowaną sumę (6.7) stawał się znikomo 

mały gdy 

n

 
Z CTG LF wynikają ważne wnioski: 
 
1.  CTG LL jest szczególnym przypadkiem CTG LF.  

Aby uzasadnić ten wniosek wystarczy przyjąć, że dla każdego i 

µ

=

)

(

E

i

X

oraz dla 

ka

żdego i  

σ

σ =

i

 Wtedy teza CTG LL wynika wprost z tezy CTG LF. 

2. 

Korzystając  z  CTG  LF  (lub CTG LL)  sformułujemy  integralne twierdzenia graniczne 
Moivre’a-Laplace’a

Twierdzenie  to  mówi,  że  zmienna  losowa  o  rozkładzie 

dwumianowym  ma  rozkład  asymptotycznie normalny

,...,

,

2

1

X

X

. Dla uzasadnienia tego faktu 

załóżmy,  że  ciąg  zmiennych  losowych 

 

ma  rozkład  zerojedynkowy.  Funkcja 

rozkładu jest jak wiadomo zdefiniowana dla takiej zmiennej wzorem: 
 



=

=

=

=

=

poza

x

p

q

x

p

x

X

P

i

i

i

i

0

0

1

1

)

(

 

(6.10) 

 
Łatwo policzyć, że powyższa zmienna losowa ma wartość oczekiwaną 

p

X

i

=

)

(

E

 

i wariancję 

pq

i

=

2

σ

 

Jeśli zastosujemy do ciągu takich zmiennych CTG LL to otrzymamy że zmienna 

losowa: 
 

npq

np

X

n

n

X

Y

n

i

i

n

i

i

n

=

=

=

=

1

1

σ

µ

 

(6.11) 

 
jest asymptotycznie normalna. 
Zauważmy jednak, że jeżeli rozpatrywać będziemy ciąg niezależnych doświadczeń i zmienna 
losowa 

)

,...,

2

,

1

(

n

i

X

i

=

 

przyjmować będzie wartość 1 gdy badane zjawisko wystąpi w i-ej 

próbie    i  wartość  0  gdy  nie  wystąpi  to  zmienna  losowa 

=

n

i

i

X

1

 

będzie  miała  rozkład 

dwumianowy z parametrami n i p. Wobec tego ze wzoru (6.11) i twierdzenia 

LL wynika, że 

zmienna o rozkładzie dwumianowym ma rozkład asymptotycznie normalny. 
 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 41 

 

 

PRZYKŁAD  6.11 
 

Łańcuch rokowy składa się z n=43 ogniw. Ogniwa tego łańcucha mają wymiar 

05

.

0

04

.

0

06

.

19

+

=

d

. Należy obliczyć 

prawdopodobieństwo, że otrzymamy długość całego łańcucha 

2

.

0

4

.

0

820

=

L

 

mm (przewidzianą normą).  

Wskazówka:  Oszacować  nieznane  parametry  rozkładów  wymiarów  poszczególnych  ogniw  na  podstawie 

znajomości  pola  tolerancji  korzystając  z  prawa 

σ

3

 

a  następnie  wykorzystać  CTG  LF  albo LL  (centralne 

twierdzenie graniczne Lindeberga-Fellera albo Lindeberga-Levy’ego). 
 

 

Rozwiązanie: 

Wartości średnie i odchylenia standardowe (w mm) szacujemy z prawa trzech sigm: 

065

.

19

2

04

.

0

06

.

19

05

.

0

06

.

19

1

=

+

+

=

µ

,   

015

.

0

6

04

.

0

05

.

0

1

=

+

=

σ

 

Wartości do standaryzacji zmiennej: 

795

.

819

065

.

19

43

=

=

µ

09836

.

0

43

015

.

0

=

=

σ

 

oraz 
 

=

<

<

=

<

<

)

09836

.

0

795

.

819

80

.

819

09836

.

0

795

.

819

60

.

819

(

)

80

.

819

60

.

819

(

i

i

X

P

X

P

 

47

.

0

1

9535

.

0

5199

.

0

))

68

.

1

(

1

(

)

05

.

0

(

)

05

.

0

68

.

1

(

=

+

=

Φ

Φ

=

<

<

=

Y

P

 

Dokonano odczytu z tablic rozkładu normalnego. Zatem szukane prawdopodobieństwo wynosi 0.47 
 

 

PRZYKŁAD  6.12 
(JO str. 59) 

Lina  stalowa  jest  spleciona  z  20  drutów  grubych  i  70  cienkich.  Wytrzymałość  drutu  grubego  ma  rozkład 
równomierny w przedziale 

>

<

8

.

4

,

2

.

3

kN natomiast wytrzymałość drutu cienkiego ma  rozkład równomierny w 

przedziale 

>

<

2

.

1

,

8

.

0

 

kN. Przyjmując, że wszystkie zmienne losowe są niezależne, i że wytrzymałość liny jest 

sumą wytrzymałości wszystkich drutów, znaleźć prawdopodobieństwo, że wytrzymałość liny Q jest większa od 
145 kN. 
 

 

Rozwiązanie: 

Dla rozkładu równomiernego na przedziale <a, b> średnia równa się 

2

b

a

+

=

µ

 

natomiast wariancja równa się 

12

)

(

2

2

a

b

=

σ

. Otrzy

mujemy zatem dla drutu grubego i cienkiego odpowiednio średnia i wariancję: 

4

2

8

.

4

2

.

3

=

+

=

g

µ

,   

2133

.

0

12

)

2

.

3

8

.

4

(

2

2

=

=

g

σ

   

1

2

2

.

1

8

.

0

=

+

=

C

µ

   

0133

.

0

12

)

8

.

0

2

.

1

(

2

2

=

=

c

σ

 

 
Z CTG LF otrzymujemy, że zmienna losowa: 

28

.

2

150

0133

.

0

70

2133

.

0

20

)

1

70

4

20

(

=

+

+

=

Q

Q

Y

n

 

 

ma w przyb

liżeniu rozkład N(0,1). A zatem 

 

 

986

.

0

)

19

.

2

(

)

19

.

2

(

1

)

19

.

2

(

)

28

.

2

150

145

(

)

145

(

=

Φ

=

Φ

=

>

=

>

=

>

n

n

Y

P

Y

P

Q

P

 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 42 

 

Należy  podkreślić,  że  twierdzenia  graniczne  w  podanych  sformułowaniach  orzekają  tylko 

asymptotycznej  zbieżności  zmiennych  losowych  natomiast  nie  mówią  nic  o  tempie 

zbieżności. Sprawa ta wymaga w każdym przypadku osobnego badania. 

 

 

 

 

 

 

 

 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 43 

 

Elementy statystyki matematycznej 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 44 

 

Podstawowe pojęcia statystyki 

7.1  Definicje 

 

 Statystyka matematyczna 

Tą zbiorowość nazywa się 

nauka  zajmująca  się  badaniem  zjawisk  masowych 

prawidłowości  występujących  w  tych  zjawiskach.  Przedmiotem  badań  statystycznych  są 

określone własności dużej zbiorowości pewnych jednostek (elementów).  

populacją generalną. Badana własność elementów populacji to 

cecha statystyczna

 

 

Przykład: 
 
1. 

Numer butów dorosłych Polaków – cecha statystyczna: numer butów, populacja: wszyscy 

dorośli Polacy. 

2. 

Jakość produkcji opon w pewnych zakładzie – cecha statystyczna: jakość opon (spełnia 

wymagania norm albo nie), populacja cała produkcja opon w danym roku. 

Cechy statystyczne 

mogą przyjmować wartości liczbowe (wzrost, waga, wiek, itp.) lub mogą 

być  wyrażane  słownymi  określeniami  (np.  płeć,  kolor  włosów,..)  -  w  dalszym  ciągu 

przyjmujemy, że badana cecha ma charakter liczbowy.  
Cecha statystyczna jest zmienną losową 

Podstawą badań statystycznych są badania wyrywkowe (częściowe).  

 

Dlaczego  badania  częściowe

Badania częściowe - badania na 

?  - 

populacja  generalna  liczna,  badania  są  niszczące,  wzg. 

ekonomiczne, czasowe, itp.  

próbie losowej 

Próba (próbka) losowa 

część populacji dla której możemy obserwować (mierzyć) badaną 

cechę  X. Elementy próby wybieramy losowo z populacji. Element i-ty  próby  ma  cechę  X

 

(zmienna losowa, bo jej wartość zależy od wyniku losowania próby).  

Próbę losową będziemy traktować jako ciąg zmiennych losowych
 

.  

)

,...,

,

(

2

1

n

X

X

X

 

(7.1) 

 
Próba  losowa  prosta  (w skrócie PPL) 
-  próba losowa, w której cechy elementów X

 

są 

niezależne  i  mają  ten  sam  rozkład  co  cecha  X  w  populacji  generalnej.  Będziemy  zawsze 

zakładać, że próby losowe są próbami prostymi.  
 
Próbka  losowa  winna  być  reprezentatywna:  musi  oddawać  (w  mniejszej  skali)  strukturę 

populacji,  każdy  element  populacji  musi  mieć  szansę  znalezienia  się  w  próbce,  musi  być 
dostatecznie liczna.  
Statystyka - zmienna losowa b

ędąca pewną (dowolną) funkcją wyników próby losowej:  

 

)

,...,

,

(

2

1

n

X

X

X

f

U

=

 

(7.2) 

 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 45 

 

Realizację statystyki będziemy oznaczać zgodnie z umową mała literą 

)

,...,

,

(

2

1

n

x

x

x

f

u

=

 

Estymacja  

szacowanie  (przybliżanie)  na  podstawie  próbki  losowej  rozkładu 

prawdopodobieństwa  (estymacja nieparametryczna) lub jego parametrów (estymacja 
parametryczna
) cechy statystycznej w populacji,  

Dwa podstawowe zadania statystyki matematycznej: 

Estymator  -  dowolna statystyka  U 

służąca do oszacowania nieznanej wartości parametru θ 

rozkładu prawdopodobieństwa cechy populacji, lub nieznanego rozkładu tej cechy.  

Weryfikacja hipotez  
Hipoteza (statystyczna) 

pewien  sąd  (przypuszczenie)  dotyczące  rozkładu 

prawdopodobieństwa (lub parametrów rozkładu) cechy statystycznej populacji.  

Ocena prawdziwości hipotezy (przeprowadzona na podstawie próbki losowej) to weryfikacja 
hipotezy
.  
 

7.2 

Estymacja pojęcia podstawowe 

 

Ten rozdział dotyczy głównie estymacji parametrycznej. Będziemy zainteresowani estymacją 

(oszacowaniem) parametru θ rozkładu zmiennej losowej X.  

Są dwa główne typy estymacji: punktowa i przedziałowa. 
Estymacja punktowa 

polega na tym, że tworzymy funkcję PPL

)

,...,

,

(

2

1

n

n

x

x

x

u

, która jest 

realizacją  zmiennej  losowej 

)

,...,

,

(

U

2

1

n

n

X

X

X

,  której  rozkład  zależy  od  estymowanego 

parametru  θ.  Funkcję  U

nazywamy estymatorem, natomiast 

n

 

wartością  (albo  realizacją) 

estymatora  U

n

.  Używamy  estymatora  U

 

jednorazowo  i  otrzymaną  wartość  uznajemy 

n

 

przyjmujemy za oszacowanie nieznanego parametru θ. 

Na estymator punktowy nakłada się różne warunki, które omówimy dalej. Na razie powiemy 

ogólnie,  że  wartości   

n

 

estymatora  powinny  być  możliwie  bliskie  wartości  szacowanego 

par

ametru θ. 

 
Estymacja  przedziałowa  polega  na  tym,  że  tym  razem  tworzymy  dwie  funkcje  próbki 

)

,...,

,

(

2

1

n

n

x

x

x

u

  i 

)

,...,

,

(

2

1

n

n

x

x

x

u

  (naturalnie 

n

n

u

u

<

),  które  są  realizacjami  zmiennych 

losowych 

)

,...,

,

(

2

1

n

n

x

x

x

U

  i 

)

,...,

,

(

2

1

n

n

x

x

x

U

których  rozkład  zależy  od  parametru 

θ. 

Żądamy,  aby  wartości  przedziału 

)

,

(

n

n

u

u

były  skupione  wokół  parametru 

θ.  Używamy 

estymatora 

)

,

(

n

n

U

U

 

jednorazowo  i  otrzymany  przedział   

)

,

(

n

n

u

u

  przyjmujemy za 

oszacowanie nieznaneg

o parametru θ.  

 

7.3  Estymacja punktowa. 

7.3.1  Zasady tworzenia estymatorów punktowych 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 46 

 

Aby estymatory punktowe spełniały swoje zadanie żądamy aby spełniały pewne warunki. 
Wymienimy je tutaj. 
 
1. 

Estymator  powinien  być  nieobciążony

 

 

tzn:  aby  jego  wartość  przeciętna  był  równa 

wartości parametru estymowanego tzn: 

θ

=

)

(

E

n

n

U

 

(7.3) 

2. 

Jeśli  estymator  nie  jest  nieobciążony  to  często  stawia  się  wymaganie  aby  był 

 

asymptotycznie ni

eobciążony tzn: 

θ

=

)

(

 E

lim

n

n

U

 

(7.4) 

3. 

Estymator powinien być zgodny
 

 tzn. 

0

)

(

 P

lim

n

=

>

ε

θ

ε

n

U

 

(7.5) 

 
Ostatni warunek ma walory raczej teoretyczne. 
 

4. 

Jest  pożądane,  aby  rozproszenie  estymatoraa  wokół  estymowanego  parametru  było 

możliwie małe tzn. aby estymator miał możliwie małą wariancję przy ustalonej liczności 

próbki n. Stawia się zatem wymaganie efektywności estymatora. Efektywność estymatora 

bada się tylko dla estymatorów nieobciążonych. 
Estymator u

waża  się  za  najefektywniejszy

n

U

~

 

jeśli  jest  nieobciążony    i  ma  najmniejszą 

wariancję  ze  wszystkich  estymatorów  danego  parametru.  Estymatory  najefektywniejsze 

nie zawsze istnieją. Jeśli jednak istnieje najefektywniejszy estymator parametru 

θ, który 

oznaczymy 

 

to jego wartości są najbardziej skupione wokół wartości 

θ

=

)

~

(

E

n

U

.  

Estymator U

n

  

parametru θ zgodny i najefektywniejszy będziemy uważali za najlepszy do 

oszacowania nieznanego parametru θ, ponieważ z dużym prawdopodobi eństwem można 

przyjąć  że  zaobserwowana  wartość  estymatora  U

 

jest  bliska  rzeczywistej  wartości 

parametru θ.  
Jeśli 

n

U

~

 

jest  estymatorem  najefektywniejszym  danego  parametru  to  za  miarę 

efektywności dowolnego estymatora U

 

przyjmuje się iloraz: 

 

)

(

)

~

(

)

(

2

2

n

n

n

U

D

U

D

U

eff

=

 

(7.6) 

 
Jest  widoczne, że  dla  dowolnego  estymatora 

1

)

(

n

U

eff

,  przy  czym  równość  zachodzi 

dla  estymatorów  najefektywniejszych.  W  przypadku  jeśli  efektywność  estymatora  U

n

 

dąży do 1 gdy 

n

 to nazywamy estymator ten  asymptotycznie najefektywniejszym

 

7.3.2  Metody uzyskiwania estymatorów – metoda momentów (analogii 

pomiędzy próbką i populacją) 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 47 

 

Metoda  ta  został  wprowadzona  przez  K.  Pearsona.  Polega  ona  na  tym,  że  jako  estymatory 

momentów zmiennych losowych oraz funkcji tych momentów przyjmuje się tzw. momenty  

empiryczne  lub  funkcje  tych  momentów.  Pokażemy  to  na  przykładzie  estymacji 

podstawowych  parametrów  zmiennych  losowych  takich  jak  wartość  średnia,  wariancja  czy 
odchylenie standardowe. 
Momenty  zwykłe  zmiennych  losowych  rzędu  k 

k

EX

m

k

=

oraz centralne 

k

1

)

E(

m

X

k

=

µ

 

zdefiniowane  we  wcześniejszych  rozdziałach  nazywa  się  w  statystce  momentami 
teoretycznymi

k

M

. Momentami em

pirycznymi,  oznaczanymi  odpowiednio    dużymi  literami 

oraz 

k

C

będziemy nazywać statystyki będące funkcjami PPL. Definiujemy je następująco: 

1.  Moment empiryczny 

zwykły rzędu k definiujemy wzorem: 

 

=

=

n

i

k

i

k

X

n

M

1

1

 

(7.7) 

Jest widoczne, że moment ten oblicza się tak jak moment zwykły teoretyczny dla zmiennej 
typu skokowego, o punktach skokowych x

i

.  

 
2.  Moment empiryczny centralny definiujemy wzorem: 
 

=

=

n

i

k

i

k

M

X

n

C

1

1

)

(

1

 

(7.8) 

Jest widoczne, że moment ten oblicza się tak jak moment centralny teoretyczny dla zmiennej 
losowej skokowej, o punktach skokowych x

i

.  

 
Estymator parametru 

θ=m

1

 

tworzy  się  metodą  momentów  przyjmując,  że  parametr  ten 

opisuje średnia empiryczna: 
 

=

=

n

i

i

X

n

X

1

1

 

(7.9) 

zwana statystyką „X z kreską”. 
 
Analogicznie  estymator  parametru  θ,  kt

órym jest wariancja

 

two rzy  się  metodą 

momentów przyjmując, że parametr ten opisuje statystyka „S kwadrat”: 
 

=

=

=

=

n

i

i

n

i

i

X

X

n

M

X

n

S

1

2

1

2

1

2

)

(

1

)

(

1

 

(7.10) 

 

W przypadku  

gdy znane jest wartość oczekiwana zmiennej losowej X i jest równa  µ  to 

estymator wariancji  (7.10) 

możemy zapisać w postaci: 

=

=

n

i

i

X

n

S

1

2

2

0

)

(

1

µ

 

(7.11) 

 

PRZYKŁAD  7.13 
 
 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 48 

 

Udowodnić, że estymator wartości średniej (7.9) jest nieobciążony. Policzyć wariancję tego estymatora.  

Obliczmy wartość oczekiwana tego estymatora (bez względu na rozkład zmiennej losowej): 

Rozwiązanie: 

 

1

1

1

1

1

1

)

(

E

1

)

(

E

1

)

1

(

E

)

(

E

m

nm

n

X

n

X

n

X

n

X

n

i

i

n

i

n

n

i

n

=

=

=

=

=

=

=

=

                                        (a) 

 
A zatem jest to estymator nieobciążony. Obliczymy teraz wariancję: 

n

n

n

X

n

X

n

X

n

X

n

i

i

n

i

n

n

i

n

2

2

1

2

2

1

2

2

1

2

2

1

)

(

D

1

)

(

D

1

)

1

(

D

)

(

D

σ

σ

=

=

=

=

=

=

=

=

                                        (b) 

Można  łatwo  pokazać,  że  w  wielu  rodzinach zmiennych losowych o wariancji 

2

σ

 

np.  w  rodzinie  rozkładu 

dwumianowego, Poissona, normalnego estymator ten jest najefektywniejszy. 
 

 

Można wykazać, że estymator wariancji 

2

S

 

ma wartość oczekiwaną równą: 

 

2

2

1

)

(

E

σ

n

n

S

=

 

(7.12) 

 

Wynika 

stąd,  że  estymator    (7.10)  nie  jest  nieobciążony.    Jest  natomiast  asymptotycznie 

nieobciążony ponieważ: 
 

1

1

lim

=

n

n

n

 

(7.13) 

Ze wzor

(7.12)

 

wynika,  że  estymator  (7.10)  można  zmodyfikować  tak,  by  otrzymać  nowy 

estymator nieobciążony 

2

ˆ

:  

=

=

=

n

i

i

X

X

n

S

n

n

S

1

2

2

2

)

(

1

1

1

ˆ

 

(7.14) 

 

Łatwo bowiem sprawdzić, że: 

2

2

2

2

1

1

)

1

E(

)

ˆ

(

E

σ

σ

=

=

=

n

n

n

n

S

n

n

S

 

(7.15) 

 
Szczególne własności powyższych estymatorów wariancji można pokazać w przypadku, gdy 

cecha X ma rozkład normalny 

)

,

(

σ

µ

Ν

. Można udowodnić, że w takim przypadku żaden z 

powyższych estymatorów wariancji nie jest najefektywniejszy. Estymator 

2

S

 nie jest w ogóle 

nieobciążony, natomiast 

2

ˆ

 jest najefektywniejszy ale tylko asymptotycznie. 

Na zakończenie 

dyskusji w tym przypadku poczynimy dwie uwagi: 
 
• 

Jeśli  eksperyment  przeprowadza  się  tylko  raz  to  może  się  zdarzyć,  że  estymatorem 

2

S

trafimy lepiej niż 

2

ˆ

 

• 

Biorąc pod uwagę, że dla dużych estymatory 

2

S

  oraz 

2

ˆ

 

mają w przybliżeniu równe 

wartości nie jest istotne, którego z nich przyjmiemy w oszacowaniu nieznanego parametru 

2

σ .  Często w praktyce dla rozkładów normalnych i 

30

n

 

korzysta się z estymatora 

2

ˆ

 

a dla 

30

>

n

 z estymatora 

2

S

.

 

 

 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 49 

 

Na  zakończenie  tego  punktu,  należy  podkreślić,  że  jeśli  występuje  konieczność  budowy 

estymatorów  parametrów  będących  funkcjami  momentów,  to  jako  estymatory  tych 

parametrów  przyjmuje  się  wartości  tych  funkcji  momentów  empirycznych.  Estymatory 

uzyskane  metodą  momentów  mają  tą  zaletę,  że  znajdowanie  ich  wartości  jest  związane  na 

ogół z prostymi rachunkami. Istotną zaś wadą tak uzyskanych estymatorów jest ich mała na 

ogół  efektywność  (korzystnym  wyjątkiem  jest  tu  przypadek,  gdy  cecha  X  ma  rozkład 
normalny). 

 

PRZYKŁAD  7.14 
 

Niech  X w populacji  ma rozkład równomierny na odcinku <a,b>. Wyznaczyć estymatory parametrów metodą 
momentów.  

Ponieważ: 

Rozwiązanie: 

 

12

)

(

)

(

D

2

)

(

E

2

2

2

1

a

b

X

oraz

b

a

m

X

=

=

+

=

=

µ

                                        (a) 

Stąd po przekształceniach (jest to układ dwóch równań) otrzymujemy: 
 

2

1

1

3

2

µ

±

=

=

m

a

oraz

a

m

b

                                                       (b) 

i (odrzucamy rozwiązanie z +): 
 

3

3

1

1

σ

σ

+

=

=

m

b

oraz

m

a

                                                       (c) 

 

Stąd wynika następujący estymator parametrów a i b: 

3

ˆ

3

ˆ

S

X

B

oraz

S

X

A

+

=

=

                                                       (d) 

 

 

7.3.3  Metody uzyskiwania estymatorów – 

metoda największej wiarygodności 

(MNW) 

 

Jest  to metoda zapr

oponowana  przez  Fishera.  Niech  cecha  X  elementów  populacji  będzie 

zmienną  losową  typu  ciągłego  o  gęstości  prawdopodobieństwa  f  zależnej  od  m  nieznanych 
parametrów  

)

,

,

,

(

2

1

m

θ

θ

θ

.  Parametry  te  chcemy  oszacować  na  podstawie  n-elementowej 

próbki, w któ

rej zaobserwowano wartości 

)

,

,

,

(

2

1

n

x

x

x

. Wprowadzimy w tym celu funkcję 

L  określoną wzorem: 
 

=

=

=

=

=

n

i

m

i

m

n

m

m

m

n

x

f

x

f

x

f

x

f

x

x

x

L

1

2

1

2

1

2

1

2

2

1

1

2

1

2

1

)

,

,

,

:

(

)

,

,

,

:

(

)

,

,

,

:

(

)

,

,

,

:

(

)

,

,

,

,

,

,

,

(

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

θ

 

(7.16) 

Te  wartości  parametrów 

m

θ

θ

θ

,

,

,

2

1

, dla których funkcja L 

osiąga  maksimum  będziemy 

przyjmować za oszacowanie nieznanych parametrów. Wartości te będą zależeć od  wartości 

zaobserwowanych  w  próbce.  Są  zatem  funkcjami  próbki  czyli  statystykami.  Nazywać  je 

będziemy estymatorami największej wiarygodności (estymator NW). 
 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 50 

 

W  dalszym  ciągu  przyjmiemy  dla  uproszczenia  zapisu  (nie  zmniejsza  to  zbytnio  ogólności 

rozważań),  że  f  zależy  tylko  od  jednego  parametru 

θ

θ

=

1

.  Wzór  (7.16)  ma w takim 

przypadku postać: 

=

=

=

n

i

i

n

n

x

f

x

f

x

f

x

f

x

x

x

L

1

2

1

2

1

)

:

(

)

:

(

)

:

(

)

:

(

)

,

,

,

,

(

θ

θ

θ

θ

θ

 

(7.17) 

 

Jeśli zmienna losowa jest zmienną losową typu skokowego o prawdopodobieństwach 

)

,

(

θ

k

p

 

(uproszczamy  sytuację  do  estymacji  tylko  jednego  parametru)  to  funkcję  wiarygodności 
zapisujemy w postaci: 

=

=

=

n

i

i

n

n

x

p

x

p

x

p

x

p

x

x

x

L

1

2

1

2

1

)

:

(

)

:

(

)

:

(

)

:

(

)

,

,

,

,

(

θ

θ

θ

θ

θ

 

(7.18) 

Jak i poprzednio poszukujemy takiego parametru 

θ

ˆ  

aby w zbiorze wartości dopuszczalnych 

dla parametru 

θ  było: 

 

)

,

,

,

,

(

sup

)

ˆ

,

,

,

,

(

2

1

2

1

θ

θ

n

n

x

x

x

L

x

x

x

L

=

 

(7.19) 

 
Wzór  (7.19) 

oznacza,  że  poszukujemy  takiego  oszacowania  nieznanego  parametru,  że 

prawdopodobieństwo otrzymania zaobserwowanych wartości jest największe.  

Poszukując maksimum funkcji L, która ma postać iloczynu funkcji, wygodnie jest skorzystać 

z faktu, że funkcja L osiąga maksimum wtedy, gdy maksimum osiąga ln L.  

 

PRZYKŁAD  7.15 
 

Uzasadnić,  że  poszukiwanie  maksium  funkcji  L  względem  parametru 

θ

 

jest  równoważne  poszukiwaniu 

maksimum funkcji ln L. 

Zapisując  warunki  konieczne  maksimum  funkcji  L  oraz  maksimum  funkcji  lnL  (L>0)  widzimy,  że  są 
równoważne. 

Rozwiązanie: 

0

1

ln

0

=

=

=

θ

θ

θ

d

dL

L

d

L

d

oraz

d

dL

                                                               (a) 

Załóżmy że warunki te spełnione są w punkcie  

θ

θ

ˆ

=

.  

Druga pochodna funkcji lnL jest równa: 

 

2

2

ˆ

2

2

2

2

2

2

1

)

(

)

1

(

ln

θ

θ

θ

θ

θ

θ

θ

θ

d

L

d

L

L

d

dL

L

d

L

d

d

dL

L

d

d

d

L

d

=

=

=

=

                                                               (b) 

Ponieważ  L>0  więc  widać,  że  znak  drugiej  pochodnej  funkcji  lnL  jest  taki  sam  jak  znak  drugiej  pochodnej 
funkcji L. 
 

 

Rozważymy teraz kilka przykładów uzyskiwania estymatorów MNW. 
 
 

 

PRZYKŁAD  7.16 
 
W teorii 

niezawodności  przyjmuje się, że czas sprawnej pracy elementu jest zmienną losową o rozkładzie 

wykładniczym z gęstością: 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 51 

 



=

tym

poza

x

dla

e

x

f

x

0

0

1

)

(

1

α

α

                                                               (a) 

 
Gdzie  

0

>

α

jest czasem oczekiwane sprawnej pracy. Należy znaleźć estymator parametru 

α

 MNW 

 
 

Parametr 

Rozwiązanie: 

α

 przyj

muje wartości ze zbioru liczb rzeczywistych dodatnich. 

Zadanie rozwiążemy w kolejnych krokach. 
1.  Pobieramy n-

elementową PPL, której realizacja to 

)

,

,

,

(

2

1

n

x

x

x

 

2. 

Konstruujemy funkcję wiarygodności L: 
 

i

n

i

i

n

x

n

n

i

x

x

x

x

e

e

e

e

e

L

=

=

=

=

=

1

2

1

1

1

1

1

1

1

1

1

1

1

1

)

(

α

α

α

α

α

α

α

α

α

α

α

                                      (b)                                          

Ponieważ funkcja ta osiąga maksimum w tym samy punkcie co lnL to wystarczy znaleźć maksimum funkcji: 

                                               

=

=

n

i

i

x

n

L

1

1

ln

ln

α

α

                                                                    (c) 

Warunek konieczny: 

                                               

0

1

ln

1

2

=

+

=

=

n

i

i

x

n

d

L

d

α

α

α

                                                                    (d) 

Jedyne rozwiązanie: 

                                               

=

=

n

i

i

x

n

1

1

ˆ

α

                                                                    (e) 

Należy sprawdzić czy jest to maksimum (obliczymy drugą pochodną):   
 

                                        

)

2

(

1

2

ln

1

2

1

3

2

2

2

=

=

=

=

n

i

i

n

i

i

x

n

x

n

d

L

d

α

α

α

α

α

                                                                 (f) 

Obliczymy teraz wartość drugiej pochodnej w punkcie  

αˆ

 (wzór (e)): 

 

    

0

ˆ

)

2

(

ˆ

1

)

ln

(

2

2

ˆ

2

2

<

=

=

=

α

α

α

α

α

n

n

n

d

L

d

                                                                 (g)         

Skąd  wynika  że  w  punkcie  określonym  wzorem  (e)  występuje  maksimum.  Ponadto  otrzymana  wartość  jest 
dodatnia zatem spełnia warunki nałożone na dziedzinę estymatora. 
 

3. 

Zapisujemy teraz estymator NW pamiętając, że jest on zmienną losową: 
 

                                               

=

=

n

i

i

X

n

A

1

1

ˆ

                                                                    (h) 

Porównując  otrzymaną  wartość  ze  wzorem  (7.9)  stwierdzamy,  że  jest  to  estymator  nieobciążony  i 
najefektywniejszy. 
 

 
 

PRZYKŁAD  7.17 
 

Zakładamy, że cecha X populacji ma rozkład dwumianowy: 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 52 

 

m

x

dla

p

p

x

m

x

p

P

x

m

x

,

,

2

,

1

)

1

(

)

,

(

=





=

                                                               (a) 

Wyznaczyć estymator parametru MNW. 
 

Pobieramy najpierw n-

elementową  PPL,  której  realizacja  to 

Rozwiązanie: 

)

,

,

,

(

2

1

n

x

x

x

Zbiorem  rozwiązań 

dopuszczalnych jest odcinek (0,1). Zapiszemy funkcję wiarygodności: 

            

=





=

=













=

n

i

x

m

x

i

x

m

x

n

x

m

x

x

m

x

i

i

n

n

p

p

x

m

p

p

x

m

p

p

x

m

p

p

x

m

L

1

2

1

)

1

(

)

1

(

)

1

(

)

1

(

2

2

1

1

                                  (b) 

Łatwiej prowadzić rachunki po obliczeniu logarytmu lnL: 
 

            

)

)

1

ln(

)

(

ln

(ln

)

)

1

ln(

ln

(ln

ln

1

1

1

1

1

1

=

=

+

+





=

+

+





=

n

i

i

i

n

i

x

m

x

p

x

m

p

x

x

m

p

p

x

m

L

                             (c) 

Warunek konieczny: 

                                           

0

)

1

(

)

)

1

(

)

(

)

1

(

(

)

)

1

(

)

(

)

1

(

(

)

1

)

(

(

ln

1

1

1

1

=

=

=

=

=

=

=

=

=

=

p

p

nmp

x

p

p

p

x

m

p

x

p

p

p

x

m

p

x

p

x

m

p

x

dp

L

d

n

i

i

i

i

n

i

i

i

n

i

i

i

n

i

                           (d) 

Punkt podejrzany o ekstremum: 

                                               

m

x

x

nm

p

n

i

i

=

=

=1

1

ˆ

                                                                                 (e) 

Można sprawdzić, że 

1

ˆ

0

<

p

. Należy jeszcze wykazać, że jest to maksimum. Obliczymy drugą pochodną: 

 

[

]

2

1

1

2

2

)

1

(

)

2

1

(

)

(

)

1

(

)

1

(

ln

p

p

p

nmp

x

p

nmp

p

p

nmp

x

dp

L

d

n

i

i

n

i

i

=

==

=

=

                                         (f) 

Łatwo  widać, że dla  wartości parametru 

pˆ

 

(wzór (e)) drugi  człon licznika  wzoru (f) jest  równy 0  natomiast 

pierwszy zawsze ujemny bo 

0

)

ˆ

1

(

ˆ

>

− p

p

 w przedziale 

1

ˆ

0

<

p

Jako estymator parametru p przyjmujemy zatem statystykę: 
 

                                               

m

X

X

nm

P

n

i

i

=

=

=1

1

ˆ

                                                                                 (g) 

 

 

Na  zakończenie  należy  stwierdzić,  że  estymatory  otrzymane  MNW  mają  wiele  zalet:  są 

asymptotycznie nieobciążone i asymptotycznie najefektywniejsze. W niektórych przypadkach 
obie zalety lub jedna z nich wys

tępuje z pominięciem słowa „asymptotycznie”. 

 

7.4 

Estymacja przedziałowa. 

 

Jednorazowa estymacja punktowa daje oszacowanie nieznanego parametru 

θ   w postaci 

jednej liczby 

θ

ˆ

. Jeśli użyto estymatora dobrego (np. nieobciążonego i wysoce efektywnego) 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 53 

 

jeśli  próbka  jest  duża  to  zwykle  θ   niewiele  się  różni  od 

θ

ˆ

.  Jednak,  jeśli  jednorazowa 

estymacja punktowa niewiele mówi o dokładności uzyskanego wyniku. Więcej na ten temat 
mówi estymacja przed

ziałowa.  Polega  ona  na  podaniu  przedziału,  który  w  zamierzeniu 

zawiera  interesującą  nas  wielkość  oraz  na  określeniu  niepewności  związanej  z  tym 

przedziałem. Przedział ten nazywa się przedziałem ufności dla danego parametru.  

Zakładamy  jak  poprzednio,  że  cecha  X  w  populacji  jest  zmienna  losową,  której  rozkład 

należy do pewnej rodziny i rozkład ten zależy od pewnego stałego lecz nieznanego  parametru 

θ . Naszym zadaniem jest oszacowanie parametru θ . 

 
Przedział ufności dla parametru  θ  tworzymy następująco: 
 
1. 

Pobieramy z populacji PPL, którą w skrócie oznaczymy 

)

,

,

,

(

2

1

n

X

X

X

E

=

2.  Tworzymy dwie statystyki 

)

(E

U

n

  oraz 

)

(E

U

n

,  takie że 

)

(

)

(

E

U

E

U

n

n

 

oraz takie,  że 

dl

a każdego rozkładu cechy X z założonej rodziny musi zachodzić: 

 

α

θ

<

<

1

))

(

)

(

(

E

U

E

U

P

n

n

 

(7.20) 

 
gdzie 

α

 

jest ustaloną i niewielką liczbą z przedziału (0,1) na przykład równą 0.01, 0.05 albo 

0.1.  
Statystyki 

)

(E

U

n

  oraz 

)

(E

U

n

  dobieramy tak, aby przy danym 

α

 

długość  przedziału 

))

(

),

(

(

E

U

E

U

n

n

 

była możliwie mała.  

Przedział  losowy 

))

(

),

(

(

E

U

E

U

n

n

 

nazywa  się  przedziałem  ufności  natomiast liczba 

α

1

 

nazywa się poziomem ufności.  

Jeśli próbkę można pobierać wielokrotnie, to za każdym razie powstanie realizacja przedziału 

ufności 

))

(

),

(

(

E

u

E

u

n

n

 

na ogół różna za każdym razem. Czasem relacja 

)

(

)

(

E

u

E

u

n

n

<

<

θ

 

będzie spełniona czasem nie.  Jednak w długiej liczbie eksperymentów frakcja przypadków, 

w których będzie spełniona będzie bliska 

α

1

 

czyli duża.  

W rzeczywistości zwykle poprzestajemy na jednym tylko eksperymencie, znajdujemy zatem 

tylko  jedną  parę  liczb  i  jeden  przedział 

)

,

(

n

n

u

u

. Nie wiemy czy obejmuje on nieznany 

parametr 

θ  ale ponieważ liczba 

α

1

 

jest bliska jedności (np. 0.9, 0.95 albo 0.99) ufamy, że 

n

n

u

u

<

<

θ

.  

Zwykle orzekamy, że na poziomie ufności  

α

1

 

przedział ufności dla parametru  θ  przyjął 

wartość 

)

,

(

n

n

u

u

Zwracamy  uwagę,  że  orzeczenie:  parametr  θ jest  zawarty  w  stałym  przedziale   

)

,

(

n

n

u

u

  z  

prawdopodobieństwem   

α

1

 nie ma sensu bo 

θ  nie jest zmienna losową. 

Pokażemy  teraz  na  przykładach  w  jaki  sposób  buduje  się  przedziały  ufności  w  pewnych 

typowych przypadkach dla wartości średnich i dla wariancji. 
 

 

PRZYKŁAD  7.18 

Cecha X elementów populacji generalnej ma rozkład normalny 

)

,

(

σ

µ

N

 przy czym odchylenie standardowe 

σ

 

jest znane 

natomiast nie jest znana wartość przeciętna 

µ

. Należy zbudować dwustronny symetryczny przedział 

ufności dla wartości oczekiwanej 

µ

Rozwiązanie 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 54 

 

Przyjm

ijmy za estymator średniej 

µ

 

statystkę  . Ponieważ cecha X ma rozkład normalny to   ma rozkład 

)

/

,

(

n

N

σ

µ

W takim razie zmienna standaryzowana: 

                                               

n

X

σ

µ

                                                                                 (a) 

 
ma rozkład 

)

1

,

0

(

N

. 

Można z tablic dobrać taką stałą t, że: 

                                               

α

σ

µ

=

<

<

1

t

n

X

t

P

                                                                  (b) 

gdzie 

α

jest liczbą stałą. Zależność (b) można przekształcić do postaci: 

 

                                               

α

σ

µ

σ

=

+

<

<

1

n

t

X

n

t

X

P

                                                                  (c) 

A zatem przedział losowy: 

                                               

+

n

t

X

n

t

X

σ

σ

,

                                                                           (d) 

jest dwustronnym symetrycznym przedziałem ufności na poziomie ufności 

α

1

 dla parametru 

µ

. Długość tego 

przedziału jest równa: 

                                               

n

t

L

σ

2

=

                                                                           (e) 

 

i jest l

iczbą stałą dla ustalonych wartościach t , n i 

σ

.     Pozostaje jeszcze uzasadnić jak dobrać stałą t. Otóż z 

równości (b) łatwo widać, że liczba t jest kwantylem rzędu 

2

/

1

α

 

rozkładu normalnego 

)

1

,

0

(

N

. 

 

 
 

PRZYKŁAD  7.19 
Rozważymy  zadanie  bardzo  podobne  do  poprzedniego.  Cecha X elementów populacji generalnej ma nadal 

rozkład  normalny 

)

,

(

σ

µ

N

 

ale  założymy,  że  tym razem odchylenie standardowe 

σ

nie    jest znane i nie jest 

znana  wartość  przeciętna 

µ

.  Należy  zbudować  dwustronny  symetryczny  przedział  ufności  dla  wartości 

oczekiwanej 

µ

Można przypuszczać, że zadanie można rozwiązać analogicznie jak w przykładzi

Rozwiązanie 

7.18. Jednak czytelnik zechce 

zauważyć, że tym razem nie możemy wykorzystać zmiennej standaryzowanej (a) z przykładu 7.18 ponieważ nie 
znamy  wartości 

σ

.  Postąpimy  bardzo  podobnie  jak  w  poprzednim  przykładzie  ale  zamiast  odchylenia 

standardowego wykorzystamy jego estymator. Przyjm

ijmy  zatem  za  estymator  średniej 

µ

 

statystkę  

Zdefiniujemy także statystykę: 

                                               

=

=

n

i

i

X

X

n

S

1

2

2

)

(

1

                                                                           (a) 

Czytelnik zechce zauważyć, że statystyka (a) odpowiada estymatorowi wariancji (7.10). Wiemy z poprzednich 
wykładów,  że  zmienna  losowa   

1

n

S

X

µ

 

ma  rozkład  t  Studenta.  Można  zatem,  analogicznie  jak  w 

przykładzie 7.18 znaleźć taką liczbę 

)

1

,

(

n

t

α

 

że zachodzi: 

 

                                 

α

α

µ

α

=

<

<

1

)

1

,

(

1

)

1

,

(

n

t

n

S

X

n

t

P

                                                     (b) 

gdzie  P(.)  jest  prawdopodobieństwem  w  rozkładzie  z  n-1 stopniami swobody, natomiast 

)

1

,

(

n

t

α

  jest 

kwantylem rzędu 

2

/

1

α

 

zmiennej o tym rozkładzie. 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 55 

 

Równanie (b) można przekształcić do postaci: 

                                

α

α

µ

α

=

+

<

<

1

1

)

1

,

(

1

)

1

,

(

n

S

n

t

X

n

S

n

t

X

P

                                                        (c) 

A zatem podobnie jak w przykładzie 7.18 zatem przedział losowy: 

                                          

+

1

)

1

,

(

,

1

)

1

,

(

n

S

n

t

X

n

S

n

t

X

α

α

                                                                       (d) 

jest  dwustronnym  symetrycznym  przedziałem  ufności  na  poziomie  ufności 

α

1

  dla parametru 

µ

.  Długość 

przedziału jest równa: 

                                               

S

n

n

t

L

1

)

1

,

(

2

=

α

                                                                           (e) 

i jest zmienną losową. 
 

 

PRZYKŁAD  7.20 
Założymy,  że  cecha X elementów populacji generalnej ma rozkład  nieznany  i  wiadomo,  że  odchylenie 
standardowe 

σ

oraz  wartość  przeciętna 

µ

 

istnieją  choć  nie  są  znane.  Należy  zbudować  dwustronny 

symetryczny przedział ufności dla wartości oczekiwanej 

µ

Tak sformułowane zadanie możemy rozwiązać tylko dla przypadku, gdy n jest duże (co najmniej kilkadziesiąt). 

Wykorzystamy twierdzenia graniczne.  Przy przyjętych założeniach możemy skorzystać z twierdzenia LL albo 
LF  i  przyjąć,  że  średnia 

Rozwiązanie 

 

ma  asymptotycznie  rozkład  normalny 

)

/

,

(

n

N

σ

µ

.  Za oszacowanie nieznanej 

wariancji 

2

σ

  przyjmiemy estymator (7.10)

.  Powtarzamy  rozumowanie  z  przykładu  7.18, które jest 

usprawiedliwione  w  rozważanym  przypadku  tylko  dla  dużych  n.  Przez  analogię  otrzymujemy odpowiednik 

przedziału ufności (d) z przykładu 7.18. 

                                               

+

n

tS

X

n

tS

X

,

                                                                           (a) 

gdzie jest kwantylem 

2

/

1

α

 

rozkładu normalnego. 

 

 

PRZYKŁAD  7.21 

Cecha X elementów populacji ogólnej  ma rozkład normalny 

)

,

(

σ

µ

N

przy czym jest znana wartość przeciętna 

µ

 a nie jest znane 

2

σ

.  Należy zbudować dwustronny przedział ufności dla parametru 

2

σ

Rozw

ażmy  zmienną  losową 

Rozwiązanie: 

σ

µ

=

X

Y

 

.  Zmienna  ta  ma  rozkład 

)

1

,

0

(

N

Wartość  z  próbki  oznaczymy 

σ

µ

=

k

k

X

Y

. Zmienna losowa zdefiniowana następująco: 

                                               

=

=

n

i

i

n

Y

1

2

2

χ

                                                                           (a) 

ma rozkład chi-kwadrat o n stopniach swobody. Można znaleźć dla tego rozkładu (korzystając np. z tablic) dla 
danego 

α

 liczby 

)

,

(

2

1

n

α

χ

 i 

)

,

(

2

2

n

α

χ

 

takie, że: 

                                               

α

χ

χ

=

<

<

=

1

1

2

2

2

2

1

n

i

i

Y

P

                                                                (b) 

Liczby 

)

,

(

2

1

n

α

χ

 i 

)

,

(

2

2

n

α

χ

 

spełniają warunki: 

 

                                               

(

) (

)

2

2

2

2

2

1

2

α

χ

χ

χ

χ

=

>

=

<

P

P

                                                                (c) 

background image

Materiał na prawach rękopisu. Prawa zastrzeżone © J.Frączek., Kopiowanie bez zgody autora zabronione. W razie wykrycia błędów proszę 
o informację na adres  fraczek@meil.pw.edu.pl . Wersja 02

 

Strona 56 

 

Wynika  z  powyższego,  że  liczba 

)

,

(

2

2

n

α

χ

 

jest  kwantylem  rzędu 

2

/

α

 

rozkładu 

2

χ

  o n stopniach swobody 

natomiast 

)

,

(

2

1

n

α

χ

 

jest kwantylem rzędu 

2

/

1

α

Korzystając ze wzoru (7.11) otrzymujemy: 

                                               

α

χ

σ

χ

=





<

<

1

2

2

2

0

2

2

1

2

0

nS

nS

P

                                                                (d) 

Przedział : 

                                   





2

1

2

0

2

2

2

0

,

χ

χ

nS

nS

                                                                                       (e) 

Jest przedziałem ufności dla wariancji 

2

σ

 

na poziomie ufności 

α

1

.  

 

 

 

 

 
 

 

 

 


Document Outline