dr inż. Andrzej Rogowski
RACHUNEK
PRAWDOPODOBIECSTWA
I STATYSTYKA
MATEMATYCZNA
2 Podstawowe rozkłady prawdopodobieństwa
Rozdział V. Podstawowe rozkłady prawdopodobieństwa
5.1. Dyskretne rozkłady prawdopodobieństwa i schematy losowań
5.1.1. Rozkład dwupunktowy
5.1.2. Rozkład jednostajny dyskretny
5.1.3. Rozkład dwumianowy Bernoulliego
5.1.3.1. Schemat Bernoulliego
5.1.4. Rozkład wielomianowy
5.1.4.1. Uogólniony schemat Bernoulliego
5.1.5. Rozkład Poissona
5.1.5.1. Zagadnienie Poissona
5.1.6. Rozkład Pascala (ujemny dwumianowy)
5.1.6.1. Zagadnienie Pascala
5.1.7. Rozkład geometryczny
5.1.8. Rozkład Polya
5.1.8.1. Schemat urnowy Polya
5.1.9. Rozkład hipergeometryczny
5.2. Ciągłe rozkłady prawdopodobieństwa
5.2.1. Rozkład jednostajny
5.2.2. Rozkład trójkątny
5.2.3. Rozkład normalny
5.2.4. Rozkład gamma
5.2.5. Rozkład wykładniczy
5.2.6. Rozkład Erlanga
5.2.7. Rozkład 2
5.2.8. Uogólniony rozkład gamma
5.2.9. Rozkłady chi, Rayleigha i Maxwella
5.2.10. Rozkład Weibulla
5.2.11. Rozkład beta
5.2.12. Rozkład potęgowy
5.2.13. Rozkład Cauchy ego
5.2.14. Rozkład Laplace a
5.2.15. Rozkład t-Studenta
5.2.16. Rozkład F Snedecora
5.2.17. Rozkład Z Fishera
Rozdział V
Podstawowe rozkłady prawdopodobieństwa
5.1. Dyskretne rozkłady prawdopodobieństwa i schematy losowań
5.1.1. Rozkład dwupunktowy
Rozkład dwupunktowy jest najprostszym właściwym rozkładem prawdopodo-
bieństwa, jednak mimo prostoty, ma podstawowe znaczenie w teorii prawdopodobień-
stwa i liczne zastosowania w praktyce.
Def. 5.1.1. Zmienna losowa X ma rozkład dwupunktowy (D(p,a,b)) z parame-
trem p na zbiorze {a, b} (0 < p < 1, " < a < b < +"), jeśli funkcja rozkładu prawdo-
podobieństwa p(x) określona jest wzorem
1 ,
(5.1.1)
,
Dystrybuanta F(x) rozkładu dwupunktowego określona jest wzorem
0 ,
1 , , (5.1.2)
1 ,
Funkcja charakterystyczna ma postać . (5.1.3)
Rozkład posiada wszystkie momenty zwykłe i centralne, które łatwo obliczyć
wprost z definicji: , . (5.1.4)
W szczególności wartość oczekiwana , wariancja .
Spośród rozkładów dwupunktowych szczególne znaczenie ma rozkład D(p,0,1)
na zbiorze {0,1} nazywany rozkładem zero-jedynkowym. Wartość oczekiwana i wa-
riancja rozkładu zero-jedynkowego są równe: EX = p, VarX = pq= p(1 p). Warto
zauważyć, że w rozkładzie zero-jedynkowym wariancja, dla dowolnego parametru p,
jest nie większa niż 0,251.
5.1.2. Rozkład jednostajny dyskretny
Def. 5.1.2. Zmienna losowa X ma rozkład jednostajny dyskretny (DU(n,a,b))
z parametrem n na zbiorze {a, b} (n = 1, 2, & , " < a < b < +"), jeśli funkcja rozkła-
du prawdopodobieństwa p(x) określona jest wzorem
1
(5.1.4)
, 0, 1, & ,
1
Dystrybuanta F(x) rozkładu jednostajnego dyskretnego określona jest wzorem
0 ,
1 1
(5.1.5)
, 0, 1, & , 1
,
1
1 ,
1
Gdyż maksimum globalne funkcji f(x) = x(1 x) w przedziale [0,1] jest równe 0,25.
4 Podstawowe rozkłady prawdopodobieństwa
Funkcja charakterystyczna ma postać:
(5.1.6)
Rozkład posiada wszystkie momenty zwykłe i centralne, wartość oczekiwana
i wariancja są równe: , 1 . (5.1.7)
Zmienna losowa o rozkładzie DU(n,a,b) przyjmuje n+1 wartości, każdą z tym
samym prawdopodobieństwem równym . Odstępy pomiędzy sąsiednimi warto-
ściami są stałe i równe . Rozkład jest symetryczny względem wartości średniej
będącej środkiem przedziału [a,b] stąd wszystkie momenty centralne nieparzystego
rzędu są równe 0. Przy " wariancja rozkładu dąży do wartości , będącej
wariancją rozkładu jednostajnego ciągłego na odcinku [a,b].
Rozkład DU(1,a,b) jest rozkładem D( ,a,b).
Jeśli w rozkładach jednostajnym dyskretnym i dwupunktowym dopuścimy rów-
ność a = b, to otrzymamy rozkład jednopunktowy DU(0,a,a) i D(1,a,a).
5.1.3. Rozkład dwumianowy Bernoulliego
Def. 5.1.3. Zmienna losowa X ma rozkład Bernoulliego (dwumianowy)
z parametrami n i p (n = 1, 2, & , 0 < p < 1), jeśli funkcja rozkładu prawdopodobień-
stwa p(x) określona jest wzorem
1 , 0, 1, & , (5.1.8)
Rozkład Bernoulliego oznaczany jest B(n,p)2 lub Bn(p), prawdopodobieństwo
1 p przez q, a p(k) = P(X = k) jako Pn,k lub Pn,k,p, gdy zachodzi konieczność rozróż-
nienia p.
Dystrybuanta F(x) rozkładu Bernoulliego określona jest wzorem
0 , 0
1 , 1, 0, 1, & , 1 (5.1.9)
1 ,
Funkcja charakterystyczna ma postać: (5.1.10)
Rozkład posiada wszystkie momenty zwykłe i centralne, wartość oczekiwana
2
i wariancja są równe: , , (5.1.11)
Warto zauważyć, że:
1. Jeśli X1, X2, & , Xn są niezależnymi zmiennymi losowymi zero-jedynkowymi
z parametrem p D(p,0,1), to zmienna losowa Y = X1 + & + Xn ma rozkład B(n,p).
2. Zmienna losowa o rozkładzie B(1,p) jest zmienną losową o rozkładzie D(p,0,1).
2
Analogicznie oznacza się rozkład ciągły beta.
Dyskretne rozkłady prawdopodobieństwa 5
3. Rozkład dwumianowy jest addytywny ze względu na parametr n, tzn. że jeśli
zmienne X1, X2, & , Xk są niezależnymi zmiennymi losowymi B(n1,p), B(n2,p), & ,
B(nk,p), to zmienna losowa Y = X1 + X2 + & + Xk ma rozkład B(n1+ & +nk,p).
4. Dla rozkładów B(n,p) i B(n,1 p) zachodzi związek Pn,k,p = Pn,n-k,1-p.
5. Na podstawie twierdzenia Poissona rozkład B(n,p) można aproksymować rozkładem
Poissona z parametrem = np: .
,
!
Na podstawie twierdzenia Moivre a-Laplace a rozkład B(n,p) można aproksymować
rozkładem normalnym N(np, : .
,
Uwaga: Twierdzenia na których opiera się aproksymacja (Poissona i Moivre a-
Laplace a) należą do twierdzeń podstawowych. Jednak warunki stosowalności wzorów przy-
bliżonych różnią się dość istotnie u różnych autorów. Np. Gesternkorn i Śródka3 jako warun-
ki dostateczne dla stosowania wzoru Poissona podają n e" 100 i d" 20. W pracy tej zamiesz-
czono również tablicę obrazującą dokładność szacowania (tab. III s. 419). Stwierdzono rów-
nież, że dla małych (< 5) dobre przybliżenie jest już dla n = 50 oraz podano oszacowanie
rzędu popełnianego błędu jako 2/n (co chyba jest oszacowaniem bardzo grubym , gdyż ina-
czej przeczyłoby to wcześniejszym stwierdzeniom, np. dla n = 100 i = 4 i k = 1, 2, 3, 4, 5
błąd szacunku na podstawie wspomnianej tablicy nie przekracza 0,004, a z podanego osza-
cowania 0,16 co jest błędem dyskwalifikującym). Z kolei Firkowicz4 warunki stosowalności
określa jako p < 0,2 i n > 20. W przypadku stosowania twierdzenia Moivre a-Laplace a Ge-
sternkorn i Śródka podają, że stosuje się go w sytuacji, gdy nie można stosować wzoru Pois-
sona (zbyt duża wartość ) i wartości: n, k i (n k) są dostatecznie duże (?!). Firkowicz poda-
je bardziej precyzyjny warunek stosowalności: np(1 p) > 4.
6. Jeśli X ma rozkład B(n,p), to zmienna losowa ma rozkład B(n,p), tzn. P(Z =
= P(X = k), k = 0, 1, ..., n. Zmienna losowa Z nazywana jest (w badaniach kontroli
jakości) frakcją elementów wadliwych w próbce losowej o liczności n (tutaj sukce-
sem jest wylosowanie elementu wadliwego, p ma interpretację wadliwości popula-
cji). Dla zmiennej losowej Z zachodzi: , .
5.1.3.1. Schemat Bernoulliego
Przeprowadzamy n (n = 1, 2, 3, ...) doświadczeń w taki sposób, że prawdopodo-
bieństwo uzyskania określonego wyniku uznawanego umownie za sukces jest w każ-
dym doświadczeniu jednakowe i równe p (0 < p < 1), oraz wynik w każdym z do-
świadczeń (grupie doświadczeń) nie zależy od wyników uzyskanych w innych do-
świadczeniach (niezależność zespołowa). Tak określony schemat doświadczeń nazy-
wamy schematem doświadczeń Bernoulliego.
Na ogół w schemacie Bernoulliego przyjmuje się, że wszystkie doświadczenia są takie
same (wielokrotne powtórzenia tego samego doświadczenia), jednak w ogólności nie
jest to konieczne. Pojedyncze doświadczenie może mieć dowolną liczbę wyników,
zbiór wyników dzieli się na dwie rozłączne grupy, z których każdy wynik z jednej
grupy (zbioru S) nazywamy sukcesem z drugiej (zbioru S ) porażką. W rezultacie
sprowadzamy doświadczenie do doświadczenia, w którym występują tylko dwa wyni-
ki: sukces i porażka, przy czym p (prawdopodobieństwo sukcesu) jest równe mierze
3
T. Gesterkorn, T. Śródka, Kombinatoryka i rachunek prawdopodobieństwa, PWN Warszawa 1978.
4
S. Firkowicz, Statystyczne badanie wyrobów, WNT Warszawa 1970.
6 Podstawowe rozkłady prawdopodobieństwa
zbioru S (prawdopodobieństwu tego, że wynik doświadczenia pierwotnego będzie
należał do zbioru S, analogicznie q jest równe mierze zbioru S , p + q = 1).
Twierdzenie Bernoulliego
Zmienna losowa X określająca prawdopodobieństwo tego, że w n doświadcze-
niach przeprowadzonych według schematu Bernoulliego z prawdopodobieństwem
sukcesu równym p uzyskamy k sukcesów w dowolnej kolejności ma rozkład B(n.p),
tzn. , 0,1, & , .
,
Wskaznik k0, dla którego jest nie mniejsze niż pozostałe Pn,k
,
nazywamy najbardziej prawdopodobną liczbą sukcesów w serii n doświadczeń Bernoul-
liego. Jeśli liczba (n+1)p jest liczbą naturalną, to k0 przyjmuje dwie wartości: (n+1)p 1
i (n+1)p, w przeciwnym przypadku k0 = [(n+1)p]5.
Przykład 5.1.1.
Prawdopodobieństwo tego, że samochód wjeżdżający na skrzyżowanie skręci
w prawo wynosi 0,152. Obliczyć oczekiwaną i najbardziej prawdopodobną liczbę samo-
chodów skręcających w prawo, jeśli na skrzyżowanie wjechało odpowiednio 10, 100 i 500
samochodów. Obliczyć prawdopodobieństwo tego, że 30% wjeżdżających na skrzyżowanie
samochodów skręci w prawo.
Rozwiązanie:
Zakładając, że wjeżdżające na skrzyżowanie samochody nie stanowią kolumny (więc wy-
bory poszczególnych kierowców są niezależne) możemy uznać, że mamy do czynienia ze
schematem Bernoulliego. Wartość oczekiwana w rozkładzie Bernoulliego wynosi np, stąd
oczekiwana liczba skrętów w prawo wynosi odpowiednio: 100,152 = 1,52, 1000,152 = 15,2,
5000,152 = 76. Ponieważ iloczyn (n+1)p wynosi odpowiednio 1,672, 15,352, 76,152,
najbardziej prawdopodobna liczba skrętów w prawo wynosi odpowiednio 1, 15, 76. Aby
odpowiedzieć na trzecie pytanie należy obliczyć prawdopodobieństwa zdarzeń: uzyskanie 3
sukcesów w 10 próbach Bernoulliego, uzyskanie 30 sukcesów w 100 próbach Bernoulliego,
uzyskanie 150 sukcesów w 500 próbach Bernoulliego. Rozwiązanie zawiera tabelka 5.1.1.
Dokonano również aproksymacji rozkładem Poissona i normalnym dla zobrazowania
jakie błędy mogą być popełnione przy aproksymacji. Podano również prawdopodobieństwo
tego, że liczba skrętów nie przekroczy odpowiednio 3, 30 i 150 (Pn,d"k). Obliczenia wykona-
no w programie Excel6.
Tab. 5.1.1.
Aproksymacja roz- Aproksymacja roz-
Pn,k = np npq Wynik dokładny
kładem Poissona kładem normalnym
P10,3 1,52 1,28896 0,132887146441348 0,128012359048981 0,15023814083625
P100,30 15,2 12,8896 0, 81462144813680110-4 2,6938377741571310-4 0, 22682394265998510-4
P500,150 152 128,896 0, 2835485210-16 0, 2284361365710-13 0, 1761210-19
Pn, d"k
P10, d"3 0,947864053755883 0,931822285975765 0,903813793167432
P100, d"30 0,999947092084657 0,999753771982585 0,999981246443693
P500, d"150 0,99999999999999 1 1
5
Najmniejsza liczba całkowita nie mniejsza niż (n+1)p. Zauważmy, że k0 na ogól nie jest równe oczekiwanej liczbie
sukcesów równej np (która na ogół nie jest liczbą całkowitą). Równość zachodzi, gdy np jest liczbą naturalną.
6
Należy zaznaczyć, że na błąd aproksymacji składa się zarówno błąd metody jaki błąd dokładności obliczeń
programu Excel trudny do wyodrębnienia.
Dyskretne rozkłady prawdopodobieństwa 7
5.1.4. Rozkład wielomianowy
Def. 5.1.4. Zmienna losowa wielowymiarowa , , , & ma rozkład
wielomianowy z parametrami n, p1, p2, ..., pk (n = 1, 2, & , 0 < pi < 1 dla i = 1, 2, ..., k,
"
k > 1, 1), jeśli funkcja rozkładu prawdopodobieństwa , , &
określona jest wzorem
!
, , , &
! !
(5.1.12)
, & , ; 0, 1, & , 1, 2, . . ;
Dla rozkładu wielomianowego:
wektor wartości oczekiwanych , , & , = , , & ,
1 2
kowariancja , , , , 1, 2, & , (5.1.13)
wariancja 1 , , 1, 2, & ,
Oznaczmy przez = [p1, p2, ..., pk], wtedy rozkład wielomianowy z parametrami
n, p1, p2, ..., pk możemy zapisać jako DW(n, ).
Jeśli , , & , są wielowymiarowymi zmiennymi losowymi o rozkładach
DW( , ), DW( , ), ..., DW( , ) to zmienna losowa ma
rozkład DW( , ).
5.1.4.1. Uogólniony schemat Bernoulliego
Przeprowadzamy n niezależnych doświadczeń, w których możliwe jest k > 1
(k jest liczbą naturalną) różnych wyników A1, A2, A3, ... , Ar, przy czym w każdym
doświadczeniu prawdopodobieństwo zajścia zdarzenia Ai jest jednakowe i równe pi
(0 < pi < 1, i = 1, 2, ..., k; p1 + p2 + ...+ pk = 1 ).
Twierdzenie
Prawdopodobieństwo tego, że na n przeprowadzonych doświadczeń według
uogólnionego schematu Bernoulliego uzyska się dokładnie ni wyników Ai (i = 1, ..., k;
!
n1 + n2 + ... + nk = n) jest równe ; ,,
! !
Przykład 5.1.2.
W magazynie znajdują się elementy (wymieszane) produkowane przez trzy różne zakłady.
Każdy z zakładów produkuje elementy różnych gatunków, przy czym średni udział procen-
towy elementów odpowiednio I, II i III gatunku dla poszczególnych zakładów wynosi od-
powiednio: dla zakładu A 75%, 15%, 10%; zakładu B 60%, 30%, 10%; zakładu C
90%, 8%, 2%. Spośród elementów znajdujących się w magazynie 35% stanowią elementy
wyprodukowane przez zakład C i 40% przez zakład B. Obliczyć prawdopodobieństwo tego,
że wśród pięciu losowo pobranych elementów uzyskamy a) 2 elementy I i III gatunku i 1
element II gatunku, b) 2 elementy I gatunku pochodzące z zakładu C, 2 elementy III gatun-
ku pochodzące z zakładu B i 1 element II gatunku pochodzący z zakładu A. Zakładamy, że
liczba elementów w magazynie liczona jest w tysiącach sztuk.
8 Podstawowe rozkłady prawdopodobieństwa
Rozwiązanie:
ad a)
Losowanie można uznać za uogólniony schemat Bernoulliego, w którym występują trzy
zdarzenia (wyniki): A1 wylosowano element I gatunku, A2 wylosowano element II
gatunku, A3 wylosowano element III gatunku. Odpowiednie prawdopodobieństwa zajścia
zdarzeń Ai obliczamy z twierdzenia o prawdopodobieństwie całkowitym:
p1 = P(A1) = 0,250,75 + 0,40,6 + 0,350,9 = 0,7425
p2 = P(A2) = 0,250,15 + 0,40,3 + 0,350,08 = 0,1855
p3 = P(A3) = 0,250,1 + 0,40,1 + 0,350,02 = 0,072
Szukane prawdopodobieństwo:
5!
P ; , , 0,7425 0,1855 0,072 0,0159046119540
2! 1! 2!
ad b)
Losowanie można uznać za uogólniony schemat Bernoulliego, w którym występuje dzie-
więć zdarzeń (wyników): A1 wylosowano element I gatunku z zakładu A, A2 wyloso-
wano element II gatunku pochodzący z zakładu A, A3 wylosowano element III gatunku
pochodzący z zakładu A, A4 wylosowano element I gatunku pochodzący z zakładu B, A5
wylosowano element II gatunku pochodzący z zakładu B, A6 wylosowano element III
gatunku pochodzący z zakładu B, A7 wylosowano element I gatunku pochodzący z za-
kładu C, A8 wylosowano element II gatunku pochodzący z zakładu C, A9 wylosowano
element III gatunku pochodzący z zakładu C. Odpowiednie prawdopodobieństwa zajścia
zdarzeń Ai wynoszą:
p1 = P(A1) = 0,250,75; p2 = P(A3) = 0,40,6; p3 = P(A3) = 0,350,9;
p4 = P(A4) = 0,250,15; p5 = P(A5) = 0,40,3; p6 = P(A6) = 0,350,08;
p7 = P(A7) = 0,250,1; p8 = P(A8) = 0,40,1; p9 = P(A9) = 0,350,02.
Szukane prawdopodobieństwo:
5!
P ; , , , , , , , , p p p p p p p p p
0! 1! 0! 0! 0! 2! 2! 0! 0!
30 24 0,36 0,025 0,00058320
Przykład 5.1.3.
Prawdopodobieństwo tego, że samochód wjeżdżający na skrzyżowanie skręci w
prawo wynosi 0,152, że skręci w lewo 0,348. Obliczyć: a) prawdopodobieństwo tego, że
30% wjeżdżających na skrzyżowanie samochodów skręci w prawo a 60% pojedzie prosto,
jeśli na skrzyżowanie wjechało 100 samochodów, b) prawdopodobieństwo tego, że prosto
pojedzie od 30 do 70 % samochodów, jeśli w prawo skręci 30% samochodów.
Rozwiązanie:
ad a)
Mamy do czynienia z uogólnionym schematem Bernoulliego w którym p1 = 0,152 praw-
dopodobieństwo, że losowo wybrany samochód skręci w prawo, p2 = 0,5 prawdopodo-
bieństwo, że losowo wybrany samochód pojedzie prosto, p3 = 0,348 prawdopodobień-
stwo, że losowo wybrany samochód pojedzie prosto. Szukane prawdopodobieństwo:
100! 100!
P ; , , p p p 0,152 0,5 0,348 7,51114 10
30! 60! 10! 30! 60! 10!
Dyskretne rozkłady prawdopodobieństwa 9
ad. b)
W tym przypadku prawdopodobieństwo obliczymy jako
100! 100! p p
P ; , , p p p p
30! i! 70 i ! 30! i! 70 i !
100! 0,5 0,348
0,152 8,12747 10
30! i! 70 i !
Zauważmy, że powyższy wzór możemy zapisać w postaci:
100! 70! p p
P ; , , p p p
30! 70! i! 70 i ! p p p p
gdzie pierwsza część oznacza prawdopodobieństwo uzyskania 30 sukcesów w 100 próbach
Bernoulliego z prawdopodobieństwem sukcesu p1 (p1 = 0,152), a część druga prawdopodo-
bieństwo uzyskania od 30 do 70 sukcesów w 70 próbach Bernoulliego z prawdopodobień-
stwem sukcesu ( 0,589623). Część pierwszą możemy oszacować korzystając
z twierdzenia Poissona, a część drugą korzystając z aproksymacji rozkładem normalnym.
Otrzymamy następujące wyniki: dla części pierwszej 0,00026938 (dla obliczeń ze wzoru
Bernoulliego 0,00008146, zob. tab. 5.1.1), dla części drugiej 0,996921176 (dla obliczeń ze
wzoru Bernoulliego 0,995257733) i wynik końcowy 2,6810610-4. Zauważmy, że tak obli-
czone prawdopodobieństwo jest ponad trzykrotnie większe niż uzyskane stosując wzór na
rozkład wielomianowy. Błąd wynika przede wszystkim z oszacowania rozkładem Poissona
części pierwszej7.
5.1.5. Rozkład Poissona
Def. 5.1.5. Zmienna losowa X ma rozkład Poissona z parametrem > 0, jeśli
funkcja rozkładu prawdopodobieństwa p(x) określona jest wzorem
(5.1.14)
, 0, 1, 2, &
!
Dystrybuanta F(x) rozkładu Poissona określona jest wzorem
0, 0
(5.1.15)
, 1, 0, 1, &
!
Funkcja charakterystyczna ma postać: (5.1.16)
Wartość oczekiwana i wariancja są równe: , (5.1.17)
Rozkład Poissona oznaczamy P(), a prawdopodobieństwo przyjęcia przez
zmienną losową o rozkładzie P() przez P(k,). Nośnikiem miary w rozkładzie Poisso-
na jest zbiór liczb całkowitych nieujemnych, więc nieskończony, przeliczalny, nie-
ograniczony z góry.
7
Ciekawostką jest fakt, że wykorzystując wzór Bernoulliego do części pierwszej i drugiej uzyskamy wynik koń-
cowy 8,0889310-5 różniący się od wyniku uzyskanego bezpośrednio z rozkładu wielomianowego 8,12747 10 .
Obliczenia wykonane były w programie Excell. Jest to kolejny przykład na to, jak błędy zaokrągleń wpływają na
wynik końcowy.
10 Podstawowe rozkłady prawdopodobieństwa
Jeśli niezależne zmienne losowe X1, X2, ..., Xn mają rozkłady P(1), P(2), ...,
P(n), to zmienna losowa X = X1 + X2 + ...+ Xn ma rozkład P(1 + 2 +...+ n) rozkład
Poissona jest rozkładem addytywnym.
Prawdziwe jest również twierdzenie odwrotne (Rajkowa): jeśli zmienne losowe
X1, X2, ..., Xn są niezależne i zmienna losowa X = X1 + X2 + ...+ Xn ma rozkład Poissona,
to zmienne X1, X2, ..., Xn mają rozkład Poissona.
Z addytywności rozkładu Poissona wynikają dwie istotne własności8:
1. Jeśli niezależne zmienne losowe X1, X2, ..., Xk mają rozkłady P(1), P(2), ..., P(n),
= 1 + 2 + k, S = X1 + X2 + ... + Xk, n = n1 + n2 + nk, to S ma rozkład P() i
!
|
, , & ,
!
!
.
! !
Jest to rozkład wielomianowy DW(n, , & , ).
2. Jeśli X, Y są niezależnymi zmiennymi losowymi o rozkładach P() i P(), to warun-
kowy rozkład zmiennej losowej X pod warunkiem, że X+Y = n jest rozkładem
dwumianowym B(n, ).
3. Jeśli X ma rozkład P() i Y przy danym X = n rozkład B(n,p) (p ustalone), tzn.
P(Y = k | X = n) = Pn,k,p, k = 0, 1, ..., n, to zmienne losowe Y i Z = Y X są niezależne
i mają rozkłady P(p) i P(q), gdzie q = 1 p.
Pomiędzy rozkładem wykładniczym a rozkładem Poissona istnieje związek, któ-
ry w sposób istotny wykorzystywany jest w różnych zastosowaniach teorii prawdopo-
dobieństwa, np. w teorii masowej obsługi.
Twierdzenie
Jeśli zmienne losowe X1, X2, ... są niezależnymi zmiennymi losowymi o rozkła-
dzie wykładniczym z parametrem i Sn = X1 + X2 + ... + Xn, S0 = 0, to zmienna loso-
wa Nt = max{n: Sn d" t, n = 0, 1, ...} ma, przy ustalonym t > 0 rozkład Poissona z para-
metrem t.
5.1.5.1. Zagadnienie Poissona
Przeprowadzamy ciąg Sn serii doświadczeń według schematu Bernoulliego9
(n prób w serii Sn) przy czym iloczyn liczby doświadczeń n w serii i prawdopodobień-
stwa sukcesu pn jest stały i równy > 0 (npn = ). Tak przeprowadzony ciąg serii do-
świadczeń nazywamy schematem Poissona. Pytanie: czy dla ustalonego k istnieje gra-
nica przy n dążącym do nieskończoności prawdopodobieństw Pn,k. Odpowiedz na to
pytanie daje twierdzenie Poissona.
8
Szerzej na ten temat zob. J. F. C. Kingman, Procesy Poissona, Wydawnictwo Naukowe PWN, Warszawa 2002.
9
Można rozpatrywać dowolny podciąg ciągu Sn.
Dyskretne rozkłady prawdopodobieństwa 11
Twierdzenie Poissona
Dla doświadczeń przeprowadzonych zgodnie ze schematem Poissona istnieje
granica przy n dążącym do nieskończoności i jest równa P(k, ), gdzie
, , 0, 1, 2, &
!
Rozkład Poissona można wykorzystać do przybliżonego obliczania prawdopo-
dobieństwa uzyskania k sukcesów w n próbach Bernoulliego. Warunki stosowania
aproksymacji zostały omówione w rozdz. 5.1.3, pewien pogląd daje też tabela 5.1.2,
w której podano wartości rozkładu Poissona dla = 1 i rozkładu Bernoulliego dla
n = 50, 100, 200 i 500 i odpowiednich p (tak by np = = 1) dla k = 0, 1, ..., 19, z do-
kładnością do 8 cyfr po przecinku. Obliczenia wykonano w programie Excel.
Tab. 5.1.2.
P() P(). =1 P50,k,0,02 P100,k,0,01 P200,k,0,005 P500,k,0,002
k P50;k;0,02 P100;k;0,01 P200;k;0,005 P500;k;0,002
=1 skumu. skumu. skumu. skumu. skumu.
0 0,36787944 0,36416968 0,36603234 0,36695782 0,36751125 0,36787944 0,36416968 0,36603234 0,36695782 0,36751125
1 0,36787944 0,37160171 0,36972964 0,36880183 0,36824775 0,73575888 0,73577139 0,73576198 0,73575965 0,73575901
2 0,18393972 0,18580086 0,18486482 0,18440092 0,18412388 0,91969860 0,92157225 0,92062680 0,92016057 0,91988288
3 0,06131324 0,06066967 0,06099917 0,06115809 0,06125163 0,98101184 0,98224192 0,98162596 0,98131866 0,98113451
4 0,01532831 0,01454834 0,01494171 0,01513586 0,01525153 0,99634015 0,99679026 0,99656768 0,99645452 0,99638604
5 0,00306566 0,00273152 0,00289779 0,00298154 0,00303197 0,99940582 0,99952178 0,99946547 0,99943606 0,99941801
6 0,00051094 0,00041809 0,00046345 0,00048693 0,00050128 0,99991676 0,99993987 0,99992892 0,99992299 0,99991929
7 0,00007299 0,00005363 0,00006286 0,00006781 0,00007089 0,99998975 0,99999351 0,99999178 0,99999080 0,99999018
8 0,00000912 0,00000588 0,00000738 0,00000822 0,00000876 0,99999887 0,99999939 0,99999916 0,99999903 0,99999894
9 0,00000101 0,00000056 0,00000076 0,00000088 0,00000096 0,99999989 0,99999995 0,99999992 0,99999991 0,99999990
10 0,00000010 0,00000005 0,00000007 0,00000008 0,00000009 0,99999999 1,00000000 0,99999999 0,99999999 0,99999999
11 9,22E-09 3,48E-09 5,79E-09 7,34E-09 8,42E-09 1,00000000 1,00000000 1,00000000 1,00000000 1,00000000
12 7,68E-10 2,31E-10 4,34E-10 5,81E-10 6,88E-10 1,00000000 1,00000000 1,00000000 1,00000000 1,00000000
13 5,91E-11 1,38E-11 2,97E-11 4,22E-11 5,18E-11 1,00000000 1,00000000 1,00000000 1,00000000 1,00000000
14 4,22E-12 7,42E-13 1,86E-12 2,83E-12 3,61E-12 1,00000000 1,00000000 1,00000000 1,00000000 1,00000000
15 2,81E-13 3,64E-14 1,08E-13 1,77E-13 2,34E-13 1,00000000 1,00000000 1,00000000 1,00000000 1,00000000
16 0 1,62E-15 5,79E-15 1,03E-14 1,42E-14 1,00000000 1,00000000 1,00000000 1,00000000 1,00000000
17 0 6,63E-17 2,89E-16 5,58E-16 8,12E-16 1,00000000 1,00000000 1,00000000 1,00000000 1,00000000
18 0 2,48E-18 1,34E-17 2,85E-17 4,37E-17 1,00000000 1,00000000 1,00000000 1,00000000 1,00000000
19 0 8,52E-20 5,86E-19 1,37E-18 2,22E-18 1,00000000 1,00000000 1,00000000 1,00000000 1,00000000
Przykład 5.1.4.
Rutherford i Geiger obserwowali liczbę cząstek ą emitowanych przez substancję promie-
niotwórczą w n = 2608 okresach po 7,5 sekundy10 zliczając liczbę cząstek i zaobserwowa-
nych w poszczególnych okresach ni oznacza liczbę okresów w których zaobserwowano i
cząstek. Zebrane wyniki i obliczenia zawiera tabela 5.1.3. W tabeli zamieszczono ponadto
"
wartości empirycznej funkcji rozkładu pn(x) i dystrybuanty empirycznej Fn(i) = ,
prawdopodobieństwa p(k) = P(X = k) i P(X d" k), gdzie X ma rozkład P() z parametrem
obliczonym na podstawie danych empirycznych (średnia z próby) oraz oczekiwaną liczbę
10
Dane za M. Fisz, Rachunek prawdopodobieństwa i statystyka matematyczna, PWN Warszawa 1967, s. 156.
12 Podstawowe rozkłady prawdopodobieństwa
okresów w których zaobserwowano i cząstek np(k), przy założeniu, że rozkład liczby
cząstek jest rozkładem Poissona. W ostatniej tabeli zamieszczono obliczenia npi (odpowia-
dające prawdopodobieństwom np(k)) podane przez M. Fisza. Pokazuje to, jak dokładność
obliczeń i pewne niuanse interpretacyjne mogą wpływać na wyniki11. Obliczona średnia
z próby wynosi 3,867331 natomiast wariancja 3,633332 (estymator nieobciążony z próby).
Porównanie wartości oczekiwanej i wariancji jest o tyle istotne, że w rozkładzie Poissona
obie te wartości są sobie równe, więc duża różnica wskazywałaby na błędne założenie
o poissonowskim rozkładzie liczby cząstek.
Tab. 5.1.3.
i ni np(i) pn(i) p(i) Fn(i) P(X d" i)
0 57 54,544 0,021856 0,020914 0,021856 0,020914
1 203 210,9397 0,077837 0,080882 0,099693 0,101796
2 383 407,8869 0,146856 0,156398 0,246549 0,258194
3 525 525,8112 0,201304 0,201615 0,447853 0,459809
4 532 508,3715 0,203988 0,194928 0,65184 0,654737
5 408 393,2082 0,156442 0,15077 0,808282 0,805507
6 273 253,4444 0,104678 0,09718 0,91296 0,902686
7 139 140,0219 0,053298 0,053689 0,966258 0,956376
8 45 67,6889 0,017255 0,025954 0,983512 0,98233
9 27 29,08615 0,010353 0,011153 0,993865 0,993483
10 16 11,24858 0,006135 0,004313 1 0,997796
" 2608 2602,251 1 0,997796
Przykład 5.1.5.
Prawdopodobieństwo tego, że samochód wjeżdżający na skrzyżowanie nie spowo-
duje kolizji wynosi 0,99995. W ciągu doby na skrzyżowanie wjeżdża przeciętnie 1000
samochodów. Oszacować prawdopodobieństwo tego, że w ciągu tygodnia na skrzyżowaniu
dojdzie do co najmniej dwóch kolizji.
Rozwiązanie:
Możemy przyjąć, że mamy do czynienia ze schematem Bernoulliego, w którym liczba
doświadczeń wynosi 7000. Sukcesem będzie, gdy wjeżdżający na skrzyżowanie samo-
chód spowoduje kolizję, stąd prawdopodobieństwo sukcesu 0,00005. Interesuje nas praw-
dopodobieństwo uzyskania co najmniej dwóch sukcesów. Wygodniej jest obliczyć prawdo-
podobieństwo zdarzenia przeciwnego uzyskania co najwyżej 1 sukcesu. Ponieważ liczba
doświadczeń n jest duża, a prawdopodobieństwo sukcesu p małe i np = = 0,35 skorzysta-
my z twierdzenia Poissona obliczając P(0;0,35) + P(1;0,35) = 0,9513289. Stąd szukane
prawdopodobieństwo 0,04867108 (obliczenia z dokładnością do 8 cyfr po przecinku). Ko-
rzystając z rozkładu Bernoulliego otrzymalibyśmy wartość 0,04866707.
11
Szczególnie istotny jest wynik dla i = 10. Należy przypuszczać, że w tym przypadku nie była obliczana wartość
npi tylko wynik uzyskano jako dopełnienie do n = 2608 wartości npi dla i = 0, 1, ..., 9. Różnica występuje również
przy obliczaniu wartości średniej wynika to z zaokrąglenia do dwóch miejsc po przecinku, co automatycznie
rzutuje na obliczanie wartości pi. Obliczenia w tabeli wykonano w programie Excell. Ciekawostką jest, że te same
dane wykorzystano w książce A. Plucińska, E. Pluciński, Elementy probabilistyki, PWN Warszawa 1979, s. 51,
ale tym razem wartość średnia wyszła 3,85!
Dyskretne rozkłady prawdopodobieństwa 13
Przykład 5.1.6.
Doświadczenie polega na obserwacji wybranego punktu drogi i zliczaniu liczby
przejeżdżających samochodów. Jaki jest rozkład liczby przejeżdżających samochodów
w odcinku czasu długości t, jeśli odstępy (czasu) pomiędzy kolejnymi samochodami (za-
kładamy, że w obserwowanym punkcie w danej chwili może pojawić się co najwyżej jeden
samochód) mają rozkład wykładniczy, a średni odstęp wynosi 2,5 s.
Rozwiązanie:
Z treści zadania wynika, że odstępy czasu między kolejnymi zgłoszeniami mają rozkład
E(0,25), gdyż parametr rozkładu wykładniczego jest odwrotnością wartości średniej roz-
kładu. Stąd zmienna losowa Nt (określona wcześniej) określa liczbę przejeżdżających
samochodów w odcinku czasu długości t i ma rozkład Poissona z parametrem 0,25t.
5.1.6. Rozkład Pascala (ujemny dwumianowy)
Def. 5.1.6. Zmienna losowa X ma rozkład Pascala (ujemny dwumianowy)
z parametrami k, p (k = 1, 2, ..., 0 < p < 1) NB(k,p), jeśli funkcja rozkładu prawdopo-
dobieństwa p(x) określona jest wzorem
1
(5.1.18)
1 , , 1, &
1
Dystrybuanta F(x) rozkładu Pascala określona jest wzorem
0,
1
(5.1.19)
1 , 1, 0, 1, &
1
Funkcja charakterystyczna ma postać: 5.1.20)
Wartość oczekiwana i wariancja są równe: , (5.1.21)
Rozkład Pascala można uogólnić na dowolne k > 0 (nie nosi wtedy nazwy Pas-
cala). Symbol
(dla k = 0 1, dla k niecałkowitego dodat-
!
niego 0 .
Rozkład Pascala bywa przedstawiany w innej postaci. Jeśli przyjmiemy n = k + l
(l = 0, 1, ...) i Xk ma rozkład NB(k,p), a X zmienna losowa przyjmująca wartości 0, 1, 2, ...
określona rozkładem P(X = l) = P(Xk = k + l) = 1 . W tym przypadku
zmienną X interpretuje się jako liczbę porażek w schemacie Bernoulliego zanim uzyskano k
sukcesów.
Dla małych wartości p (p < 0,2) rozkład Pascala NB(k,p) można aproksymować
rozkładem Erlanga rzędu k z parametrem = p (E(,k)).
5.1.6.1. Zagadnienie Pascala
Przeprowadzamy serię doświadczeń według schematu Bernoulliego tak długo,
aż uzyskamy k sukcesów. Liczba koniecznych do przeprowadzenia doświadczeń jest
zmienną (jest oczywistym, że nie może być mniejsza niż k). Pojawia się pytanie jaki
14 Podstawowe rozkłady prawdopodobieństwa
jest rozkład tej zmiennej jakie jest prawdopodobieństwo Pk,n, tego, że przy ustalonym
p będziemy musieli wykonać dokładnie n doświadczeń (k-ty sukces uzyskamy w n-tym
doświadczeniu). Odpowiedz na to pytanie daje następujące twierdzenie.
Twierdzenie
Jeśli przeprowadzamy serię doświadczeń według schematu Bernoulliego
z prawdopodobieństwem sukcesu p aż do uzyskania z góry ustalonej liczby sukcesów k
(k > 0), to prawdopodobieństwo tego, że liczba doświadczeń będzie równa n (n e" k)
Pk,n jest równa 1 .
Zagadnienie Pascala jest ściśle związane z zagadnieniem Bernoulliego. Aby
w n-tym doświadczeniu uzyskać k-ty sukces koniecznym jest, by w pierwszych n 1
doświadczeniach uzyskać dokładnie k 1 sukcesów (w dowolnej kolejności, prawdo-
podobieństwo tego zdarzenia wynosi 1 ) i sukces w ostatnim, n-tym
doświadczeniu (prawdopodobieństwo tego zdarzenia wynosi p). Z niezależności do-
świadczeń w schemacie Bernoulliego otrzymujemy szukane prawdopodobieństwo
(iloczyn powyższych).
Przykład 5.1.7.
Korzystając z danych z przykładu 5.1.5 oszacować prawdopodobieństwo tego, że na skrzy-
żowaniu dojdzie do dwóch kolizji, przy czym druga kolizja nastąpi w siódmym dniu.
Rozwiązanie:
Z treści wynika, że mamy do czynienia z zagadnieniem Pascala, przy czym musimy odpo-
wiedzić na pytanie: jakie jest prawdopodobieństwo tego, że druga kolizja (sukces) nastąpi
nie wcześniej niż 6001 doświadczeniu i nie pózniej niż w doświadczeniu 7000. Korzystając
ze wzoru 5.1.18 szukane prawdopodobieństwo obliczymy jako sumę prawdopodobieństw
"
p(n) dla n = 6001, ..., 7000 0,00005 i 1 0,99995 . Obliczenie tej sumy jest
pracochłonne. Skorzystamy z aproksymacji rozkładu Pascala NB(0,00005;2) rozkładem
Erlanga E(0,00005;2). Wartość dystrybuant rozkład E(0,00005,2) w punktach x = 7000
i x = 60001 wynoszą odpowiednio 0,04867108 i 0,03693631. Stąd szukane prawdopodo-
bieństwo wynosi 0,01173477.
5.1.7. Rozkład geometryczny
Def. 5.1.7. Zmienna losowa X ma rozkład geometryczny z parametrem p
(0 < p < 1) G(p), jeśli funkcja rozkładu prawdopodobieństwa p(x) określona jest wzo-
rem
1 , 1, 2, & (5.1.22)
Dystrybuanta F(x) rozkładu geometrycznego określona jest wzorem
0, 1
(5.1.23)
1 1 1 , 1, 1, &
Funkcja charakterystyczna ma postać: 5.1.24)
Dyskretne rozkłady prawdopodobieństwa 15
Wartość oczekiwana i wariancja są równe: , (5.1.25)
Rozkład geometryczny G(p) jest szczególnym przypadkiem rozkładu Pascala
NB(1,p) z parametrem k = 1. Określa prawdopodobieństwo konieczności wykonania n
doświadczeń w schemacie Bernoulliego dla uzyskania pierwszego sukcesu.
Rozkład geometryczny można przedstawić (przyjmując k = n 1) w postaci
P(X = k) = p(1-p)k, k = 0, 1, 2, ... . Wtedy tak określona zmienna losowa X ma interpre-
tację liczby porażek w schemacie Bernoulliego do chwili uzyskania pierwszego sukcesu.
Dla małych wartości p (p < 0,2) rozkład geometryczny G(p) można aproksymo-
wać rozkładem wykładniczym E() z parametrem = p12.
Przykład 5.1.9.
W teorii masowej obsługi, gdy odstępy między zgłoszeniami do systemu i czasami
obsług opisane są rozkładami wykładniczymi z parametrami i ( < ) rozkład liczby
klientów Lk przebywających w systemie w ustalonej (dowolnej) chwili T opisany jest roz-
kładem geometrycznym, tzn. P(Lk = n) = (1 )n, n = 0, 1, 2, ..., .
Przykład 5.1.10.
Korzystając z danych z przykładu 5.1.5 oszacować prawdopodobieństwo tego, że
w pierwszych dwóch dniach na skrzyżowaniu nie dojdzie do kolizji.
Rozwiązanie:
Na skrzyżowaniu nie dojdzie do kolizji w pierwszych dwóch dniach, jeśli pierwsza kolizja
na stąpi nie wcześniej niż na skrzyżowanie wjedzie 2001 samochód. Naszym zadaniem jest
obliczyć prawdopodobieństwo, że w schemacie Pascala z parametrami 1; 0,00005 (więc
geometrycznego z parametrem 0,00005) liczba doświadczeń będzie nie mniejsza niż 2001.
Obliczymy zdarzenie przeciwne korzystając z dystrybuanty rozkładu geometrycznego
"
(wzór 5.1.23): 1 1 1 1 1 0,0005 . Stąd szukane praw-
dopodobieństwo jest równe 1 0,0005 0,904789914. Oszacujemy to prawdopodo-
bieństwo korzystając z rozkładu wykładniczego , 0,904792177
5.1.8. Rozkład Polya
Def. 5.1.8. Zmienna losowa X ma rozkład Polya z parametrami n, p, ą P(n,p,ą),
jeśli funkcja rozkładu prawdopodobieństwa p(x) określona jest wzorem
1 1
1 1 2 1 1
(5.1.26)
dla , 0, 1, . . . ,
gdzie n = 1, 2, ...; q = 1 p; 0 < p < 1; ą"R; ką e" p; (n k) e" q.
Wartość oczekiwana i wariancja są równe: , (5.1.27)
Rozkład Polya wykorzystywany jest między innymi w zagadnieniach rozprze-
strzeniania się pandemii.
12
Szerzej na ten temat zob. M. Dębowska-Mróz, A. Rogowski, Aproksymacja niektórych rozkładów prawdopodo-
bieństwa, Logistyka nr 2/2010 (Logistyka nauka, materiały VII Konferencji Naukowo-Technicznej Logitrans
Logistyka, Systemy Transportowe, Bezpieczeństwo w Transporcie).
16 Podstawowe rozkłady prawdopodobieństwa
5.1.8.1. Schemat urnowy Polya
W urnie, w której znajduje się m białych i r czarnych kul (m + r = N) losujemy
kulę i następnie zwracamy ją do urny a następnie dodajemy do urny s kul tego samego
koloru co wylosowana kula, s jest liczbą całkowitą. Jeśli s < 0 oznacza to, że z urny
wyjęto s kul, gdy s = 0 mamy do czynienia ze schematem Bernoulliego (losowania
niezależne), gdy s > 0 oznacza to, że do urny włożono s kul. W przypadku s `" 0 mamy
do czynienia z losowaniami zależnymi. Sukcesem nazywać będziemy wylosowanie
kuli białej. Schemat taki nazywany jest schematem urnowym Polya. Naszym zadaniem
jest odpowiedz na pytanie: jakie jest prawdopodobieństwo tego, że w n próbach we-
dług schematu Polya uzyskamy dokładnie k sukcesów (k = 0, 1, ..., n). W przypadku
s < 0 zakłada się ponadto, że ks e" m i (n k) e" r. Odpowiedz na to pytanie daje na-
stępujące twierdzenie:
Twierdzenie
Prawdopodobieństwo uzyskania k sukcesów w n próbach w schemacie Polya
wyraża się wzorem:
1 1
, (5.1.28)
1
Spośród schematów urnowych Polya (poza schematem Bernoulliego, gdy s = 0)
wyróżnia się przypadek, gdy s = 1. W rzeczywistości jest to przypadek, gdy kula
wyciągnięta z urny do niej nie wraca (ani żadna inna) więc zadanie sprowadza się do
odpowiedzi na pytanie: jakie jest prawdopodobieństwo tego, że losując n kul po kolei
(lub łącznie) wylosujemy dokładnie k kul białych. Aby odpowiedz nie była trywialna
spełnione muszą być warunki: n > 0; 0 d" k d" n; k d" m; n k d" r. Prawdopodobieństwo
to wyraża się wzorem
,
Rozkład ten nazywany jest rozkładem hipergeometrycznym.
n
Jeśli we wzorze (5.1.28) podzielimy licznik i mianownik przez N i dokonamy
podstawień , , , to uzyskamy wzór (5.1.26) rozkład Polya.
Przykład 5.1.11.
W urnie znajduje się 20 kul białych i 35 kul czarnych. Przeprowadzamy serię 10 do-
świadczeń według schematu Polya z parametrem s = 2. Jaki jest najbardziej prawdopo-
dobny skład urny po zakończeniu doświadczeń.
Rozwiązanie:
W celu rozwiązania zadania należy wyznaczyć najbardziej prawdopodobną liczbę sukce-
sów w schemacie Polya. Wyniki obliczeń zawiera tab. 5.1.4.
Z tabeli wynika, że najbardziej prawdopodobna jest liczba sukcesów równa 4. Oznacza to,
że w trakcie doświadczenia czterokrotnie usuwano po dwie kule białe (łącznie 8) i sześcio-
krotnie po dwie kule czarne (łącznie 12). Stąd najbardziej prawdopodobny skład urny po
zakończeniu doświadczeń: 12 kul białych i 23 kule czarne.
Dyskretne rozkłady prawdopodobieństwa 17
Tab. 5.1.4
k P(10,k)
0 0,0027897242111180300000
1 0,0328202848366827000000
2 0,1399180564090160000000
3 0,2842779558786350000000
4 0,3028178225663720000000
5 0,1744230657982300000000
6 0,0538342795673551000000
7 0,0084861918529820800000
8 0,0006159332796519250000
9 0,0000165907954114997000
10 0,0000000948045452085695
5.1.9. Rozkład hipergeometryczny
Def. 5.1.9. Zmienna losowa X ma rozkład hipergeometryczny z parametrami n, p,
ą P(n,p,ą), jeśli funkcja rozkładu prawdopodobieństwa p(x) określona jest wzorem
dla , , 1, (5.1.29)
gdzie N = 1, 2, ...; m = 0, 1, ..., N; k1 = max (0, n N m); k2 = min (n, m).
Wartość oczekiwana i wariancja są równe:
, (5.1.30)
Rozkład hipergeometryczny jest szczególnym przypadkiem rozkładu Polya
P( , , .
18 Podstawowe rozkłady prawdopodobieństwa
5.2. Ciągłe rozkłady prawdopodobieństwa
5.2.1. Rozkład jednostajny
Rozkład jednostajny nazywany również równomiernym, prostokątnym lub
jednorodnym jest jednym z najprostszych rozkładów ciągłych, skupionym na zbiorze
ograniczonym.
Def. 5.2.1. Zmienna losowa X ma rozkład jednostajny na odcinku [a,b]
( " < a < b < +"), jeśli gęstość rozkładu prawdopodobieństwa f(x) określona jest wzo-
rem
1
, ,
(5.2.1)
0 , ,
Dystrybuanta F(x) rozkładu jednostajnego określona jest wzorem
0 ,
, ,
(5.2.2)
1 ,
Rozkład jednostajny jest jednoznacznie zdefiniowany poprzez przedział [a,b]. Ozna-
czany jest U(a,b).
Funkcja charakterystyczna ma postać . (5.2.3)
Rozkład posiada wszystkie momenty zwykłe i centralne, które łatwo obliczyć
wprost z definicji: , 2 . (5.2.4)
W szczególności wartość oczekiwana , wariancja , wszystkie
momenty centralne względem wartości średniej rzędu nieparzystego są równe 0 (ze
względu na symetrię funkcji gęstości względem wartości średniej).
Poprzez przekształcenie liniowe można sprowadzić rozkład jednostajny
na dowolnym odcinku [a,b] do rozkładu jednostajnego na odcinku [0,1]. Analogicznie
poprzez przekształcenie można uzyskać rozkład jednostajny na
dowolnym odcinku [a,b].
Rozkład jednostajny na odcinku [0,1] wykorzystywany jest w metodach symu-
lacyjnych do generowania wartości zmiennych losowych o rozkładach ciągłych. Wy-
korzystuje się do tego fakt, że jeśli X jest zmienną losową ciągłą to zmienna losowa
Y = F(X) ma rozkład jednostajny na odcinku [0,1].
Warto zauważyć, że:
1. Jeśli X1, X2 są zmiennymi losowymi niezależnymi o tym samym rozkładzie jedno-
stajnym na odcinku [a,b], to zmienna losowa Y = X1 + X2 ma rozkład trójkątny rów-
noramienny na odcinku [2a,2b].
2. Jeśli X ma rozkład jednostajny na odcinku (a,b)13, to:
13
Ponieważ rozkład jednostajny jest rozkładem ciągłym, przynależność lub nie punktów a i b do nośnika miary
jest nieistotna dla własności probabilistycznych. Dla niektórych przekształceń dla ich formalnej poprawności
korzystne jest ich wykluczenie.
Ciągłe rozkłady prawdopodobieństwa 19
a) zmienna losowa ma rozkład wykładniczy z parametrem 1,
b) zmienna losowa dla > 0 ma rozkład potęgowy z parame-
trem skali (b a) i parametrem kształtu .
5.2.2. Rozkład trójkątny
Rozkład trójkątny należy do rozkładów skupionych na zbiorze ograniczonym.
Nazwę swą (podobnie jak rozkład prostokątny) zawdzięcza temu, że wykres funkcji
gęstości wraz z osią OX tworzy trójkąt (podstawa trójkąta znajduje się na osi OX). Do
jednoznacznego zdefiniowania rozkładu konieczna jest znajomość trzech liczb:
a d" c d" b, gdzie odcinek [a,b] stanowi podstawę trójkąta, c jest rzutem prostopadłym
wierzchołka trójkąta na oś OX14. W przypadku, gdy c = a lub c = b mówimy o rozkła-
dzie trójkątnym prostokątnym na odcinku [a,b], gdy c = 0,5(a+b) mówimy o rozkła-
dzie trójkątnym równoramiennym na odcinku [a,b] (wtedy wystarczy znajomość war-
tości a i b).
Def. 5.2.2. Zmienna losowa X ma rozkład trójkątny na odcinku [a,b] o wierz-
chołku w punkcie c ( " < a d" c d" b < +")15, jeśli gęstość rozkładu prawdopodobień-
stwa f(x) określona jest wzorem
0 , ,
2 2
, ,
(5.2.5)
2 2
, ,
Dystrybuanta F(x) rozkładu trójkątnego określona jest wzorem
0 ,
, ,
(5.2.6)
1
, ,
0 ,
Funkcja charakterystyczna ma postać:
dla a < c < b 2
dla a = c < b 2 (5.2.7)
dla a < c = b 2
14
Współrzędne wierzchołka trójkąta , .
15
W rzeczywistości c jest to odciętą wierzchołka.
20 Podstawowe rozkłady prawdopodobieństwa
Rozkład posiada wszystkie momenty zwykłe i centralne, w szczególności war-
tość oczekiwana i wariancja są równe:
, . (5.2.8)
Rozkład trójkątny na odcinku [0,b] jest rozkładem potęgowym z parametrem skali b
i parametrem kształtu = 2.
5.2.3. Rozkład normalny
Rozkład normalny (nazywany również rozkładem Gaussa) jest podstawowym
rozkładem ciągłym rachunku prawdopodobieństwa, powszechnie wykorzystywanym
również w wielu innych dziedzinach nauki, np. statystyce, teorii niezawodności
i eksploatacji, metrologii, diagnostyce.
Def. 5.2.3. Zmienna losowa X ma rozkład normalny, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
1
, , , 0 (5.2.9)
"
2
gdzie m i są parametrami rozkładu. Rozkład normalny zapisuje się w postaci N(m,).
Nie istnieje postać jawna dystrybuanty, dlatego przy obliczaniu wartości dystry-
buanty i gęstości rozkładu N(m,) korzysta się z tablic dystrybuanty i gęstości rozkładu
N(0,1)16 wykorzystując fakt, że standaryzacja rozkładu normalnego N(m,) prowadzi
do rozkładu N(0,1).
Rozkład posiada wszystkie momenty zwykłe i centralne, przy czym momenty
centralne nieparzystego rzędu są równe 0, a rzędu parzystego równego 2k są równe
1 3 & 2 1 2 1 (5.2.10)
W szczególności wartość oczekiwana EX = m i wariancja VarX = 2 (5.2.11)
rozkład normalny jest więc jednoznacznie zdefiniowany przez jego wartość oczekiwa-
ną i odchylenie standardowe.
Funkcja charakterystyczna ma postać:
, exp (5.2.12)
Rozkład N(m,) (rys. 5.2.1) należy do grupy rozkładów jednomodalnych syme-
trycznych, oś symetrii przecina oś OX w punkcie m17, funkcja gęstości osiąga w m
wartość największą równą " , w punktach (m ) i (m + ) posiada punkty prze-
gięcia. Jest silnie skupiony wokół wartości średniej, spełnione są następujące równości:
| | 0,6827; 2 0,9545; 3 0,9973.
| | | |
Mówi się, że prawie cała masa rozkładu N(m,) skupiona jest w przedziale
(m 3; m + 3) i własność tę nazywa się prawem 3 sigm18.
16
Obecnie, korzystając np. z arkusza kalkulacyjnego Excel uzyskanie wartości dystrybuanty i gęstości rozkładu
N(m,) jest bardzo proste.
17
Mówimy, że rozkład jest symetryczny względem wartości średniej (jest to jednocześnie mediana).
18
| |
Z nierówności Czebyszewa otrzymujemy jedynie oszacowanie 3 .
Ciągłe rozkłady prawdopodobieństwa 21
Z własności funkcji charakterystycznych i postaci funkcji charakterystycznej dla
rozkładu normalnego wynika, że jeśli X1, & , Xn są niezależnymi zmiennymi losowymi
o rozkładach N(m1,1), & , N(mn,n), to zmienna losowa X = X1 + & + Xn ma rozkład
normalny z parametrami m = m1 + & + mn i , a ich średnia arytme-
&
tyczna rozkład normalny z parametrami i .
Prawdziwe jest też twierdzenie odwrotne (Cramr), jeśli X jest sumą niezależ-
nych zmiennych losowych X1, & , Xn i ma rozkład normalny, to zmienne losowe
X1,& , Xn mają rozkłady normalne.
Rozkład normalny należy do klasy rozkładów nieskończenie podzielnych.
Ważną własnością rozkładu normalnego jest równoważność dla tego rozkładu
pojęć niezależności i nieskorelowania jeśli zmienne losowe X, Y są nieskorelowane
i mają rozkłady normalne, to są niezależne19.
Rys. 5.2.1. Przykładowe wykresy funkcji gęstości rozkładu normalnego
Ciekawym zastosowaniem rozkładu normalnego jest możliwość obliczenia
wartości całki
dla a, B R, C 0.
2
1
Ponieważ funkcja exp jest gęstością rozkładu N(a, " , więc
1 2
1
2
"
2
"2
"2
1
0,5 "2 .
2
2
"
19
Własność odwrotna wynika wprost z definicji nieskorelowania i niezależności zmiennych losowych.
22 Podstawowe rozkłady prawdopodobieństwa
5.2.4. Rozkład gamma
Rozkład gamma jest nieujemnym rozkładem ciągłym zależnym od dwu parame-
trów. Dla ustalonych wartości parametrów rozkład gamma przybiera szczególne posta-
ci, które funkcjonują w rachunku prawdopodobieństwa pod własnymi nazwami. Roz-
kład gamma przyjęto oznaczać (b,p).
Def. 5.2.4. Zmienna losowa X ma rozkład gamma, jeśli gęstość rozkładu praw-
dopodobieństwa f(x) określona jest wzorem
0 , 0
(5.2.13)
, 0 , 0, 0
gdzie b, p są parametrami rozkładu: b nazywany jest parametrem skali20, p parametrem
kształtu (gdyż decyduje o kształcie funkcji gęstości rys. 5.2.2), (p) jest funkcją
gamma Eulera21.
Dystrybuanta rozkładu określona jest wzorem
0 , 0
,
(5.2.14)
, 0, 0, 0
gdzie , jest tzw. niepełną funkcją gamma22.
Funkcja charakterystyczna ma postać:
(5.2.15)
Istnieją wszystkie momenty zwykłe i centralne, przy czym:
&
, , , (5.2.16)
Wraz ze wzrostem parametru p rozkład (b,p) dąży do rozkładu , .
Rozkład gamma jest addytywny ze względu na parametr kształtu p w tym sen-
sie, że jeśli Y jest sumą n niezależnych zmiennych losowych X1, & , Xn o rozkładach
&
(b,pi), a Z ich średnią arytmetyczną ( ), to Y ma rozkład gamma
(b,p1 + p2 +& +pn), a Z ma rozkład (nb,p1 + p2 +& +pn).
20
Jeśli X ma rozkład (b,p), to zmienna losowa Y = bX ma rozkład (1,p).
21
Funkcja gamma Eulera jest funkcją całkową zdefiniowaną w sposób następujący: ,
gdzie p > 0. Spośród własności funkcji (p) warte uwagi są następujące własności: (1) = 1, (k) = (k 1)! (stąd
funkcję (p) traktuje się jako uogólnienie pojęcia silni), (p+1) = p(p), (0,5) = . Ponadto zachodzi: (p) > 0,
"
(p) jest ciągła i ma ciągłe pochodne wszystkich rzędów postaci .
22
Funkcja , , dla x > 0 jest nieujemna, ciągła, różniczkowalna i niewiększa niż (p).
Ciągłe rozkłady prawdopodobieństwa 23
Inną ciekawą własnością jest następujące twierdzenie Lucasa23: Niezależne
dodatnie zmienne losowe o rozkładach właściwych mają rozkłady gamma z tym samym
parametrem skali b ((b,p1) i (b,p2)) wtedy i tylko wtedy gdy zmienne losowe
U = X+Y i V = są zmiennymi losowymi niezależnymi24.
Rys. 5.2.2. Przykładowe wykresy funkcji gęstości rozkładu gamma
5.2.5. Rozkład wykładniczy
Rozkład wykładniczy jest nieujemnym rozkładem ciągłym zależnym od jednego
parametru. Ma szczególne miejsce w technice, w szczególności w teorii niezawodności
i masowej obsługi. Charakteryzuje się brakiem pamięci P(T < t+ |T e" ) = P(T < t)
w języku teorii niezawodności rozumianym jako własność niezależności czasu dalszej
poprawnej pracy urządzenia sprawnego w chwili t od tego, co działo się z urządzeniem
przed chwilą t urządzenie należy traktować jak urządzenie nowe. Rozkład wykładni-
czy przyjęto oznaczać E().
Def. 5.2.5. Zmienna losowa X ma rozkład wykładniczy, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
0 , 0
(5.2.17)
, 0 , 0
Dystrybuanta rozkładu określona jest wzorem
0 , 0
(5.2.18)
1 , 0
23
M. Fisz, Rachunek prawdopodobieństwa i statystyka matematyczna, PWN Warszawa 1967, s. 166.
24
Niezależne są również zmienne losowe U = X+Y i V = i mają rozkłady odpowiednio (b,p1+p2) i beta B(p1,p2).
24 Podstawowe rozkłady prawdopodobieństwa
Rozkład wykładniczy należy do grupy rozkładów gamma E() = (,1), stąd
otrzymujemy bezpośrednio wzory na funkcję charakterystyczną i momenty rozkładu25.
Funkcja charakterystyczna ma postać:
(5.2.19)
Istnieją wszystkie momenty zwykłe i centralne, przy czym:
!
, , , (5.2.20)
Należy zwrócić uwagę na dużą
asymetrię rozkładu wykładniczego,
co ma istotne znaczenie dla esty-
macji parametrów rozkładu meto-
dami statystyki matematycznej.
W szczególności:
wartość średnia i odchylenie stan-
dardowe są sobie równe,
P(X < EX) H" 0,632121,
P(0 < X < 0,1EX) H" 0,095163
P(0,1EX < X < 0,2EX) H" 0,086107,
P(0,2EX < X < 0,3EX) H" 0,077913,
P(0,3EX < X < 0,4EX) H" 0,070498,
P(0,4EX < X < 0,5EX) H" 0,063789,
P(0,5EX < X < 0,6EX) H" 0,057719,
P(0,6EX < X < 0,7EX) H" 0,052226,
P(0,7EX < X < 0,8EX) H" 0,047256,
P(0,7EX < X < 0,9EX) H" 0,042759,
P(0,9EX < X < EX) H" 0,03869,
P(EX < X < 1,1EX) H" 0,035008
P(1,1EX < X < 1,2EX) H" 0,031677
P(1,2EX < X < 1,3EX) H" 0,028662
Rys. 5.2.3. Przykładowe wykresy funkcji gęstości rozkładu
wykładniczego P(1,3EX < X < 1,4EX) H" 0,025935.
Rozkład wykładniczy można wykorzystać do aproksymacji rozkładu geometrycz-
nego wykorzystywanego m.in. w teorii masowej obsługi. Jako rozkład dyskretny opi-
sany jest prostą funkcją rozkładu. Dla małych wartości n obliczenie prawdopodobień-
stwa P(X = n) jest stosunkowo proste. Sytuacja znacznie się komplikuje, gdy należy
obliczyć to prawdopodobieństwo dla dużych n lub wartości dystrybuanty. Dla małych
wartości p < 0,2 ( prawdopodobieństwa sukcesu ), można wykorzystać rozkład wy-
kładniczy (jako szczególny przypadek aproksymacji rozkładu Pascala rozkładem Er-
langa). Aproksymacja dystrybuanty jest dostatecznie dokładna z pominięciem począt-
kowych wartości n, dla których dokładne obliczenie i tak nie jest zbyt trudne. W przy-
25
lub bezpośrednio z definicji, co nie jest zbyt trudne dla rozkładu wykładniczego.
Ciągłe rozkłady prawdopodobieństwa 25
padku aproksymacji prawdopodobieństw P(X = n) dostateczną dokładność uzyskuje się
dla p d" 0,1. Błąd względny maleje monotonicznie wraz ze wzrostem n, błąd bez-
względny początkowo rośnie, a następnie maleje. Im mniejsza wartość p, tym dokład-
niejsza aproksymacja26.
5.2.6. Rozkład Erlanga
Rozkład Erlanga jest nieujemnym rozkładem ciągłym zależnym od dwu para-
metrów. Należy do grupy rozkładów gamma powstaje jeśli parametr kształtu p
przyjmuje wartości naturalne n, rozkład Erlanga przyjęto oznaczać E(,n).
Def. 5.2.6. Zmienna losowa X ma rozkład Erlanga, jeśli gęstość rozkładu praw-
dopodobieństwa f(x) określona jest wzorem
0 , 0
(5.2.21)
, 0 , 0, 1, 2, &
1 !
gdzie , n są parametrami rozkładu.
Dystrybuanta rozkładu określona jest wzorem
0 , 0
,
(5.2.22)
1 , 0, 0, 1, 2, &
1 ! !
Funkcja charakterystyczna ma postać:
5.2.23)
Istnieją wszystkie momenty zwykłe i centralne, przy czym:
&
, , , (5.2.24)
"
Wraz ze wzrostem parametru n rozkład E(,n) dąży do rozkładu , .
Rozkład Erlanga, jak każdy rozkład gamma jest addytywny ze względu na pa-
rametr kształtu n: jeśli Y jest sumą n niezależnych zmiennych losowych X1, & , Xn
&
o rozkładach E(,ni), a Z ich średnią arytmetyczną ( ), to Y ma rozkład Er-
langa E(,n1 + n2 +& +nn), a Z ma rozkład Erlanga E( , n1 + n2 +& +nn).
Rozkład Erlanga z parametrem kształtu n = 1 jest rozkładem wykładniczym
E(). Stąd suma n niezależnych losowych zmiennych losowych o jednakowym rozkła-
dzie wykładniczym E() jest zmienną losową o rozkładzie Erlanga E(,n), a ich średnia
arytmetyczna ma rozkład Erlanga E(n,n).
26
Tutaj: błąd bezwzględny = różnicy wartości rzeczywistej i wartości przybliżonej, błąd względny = ilorazu błędu
względnego i wartości przybliżonej. Szerzej zob. M. Dębowska-Mróz, A. Rogowski, Aproksymacja niektórych
rozkładów prawdopodobieństwa, Logistyka nr 2/2010 (Logistyka nauka, materiały VII Konferencji Naukowo-
Technicznej Logitrans Logistyka, Systemy Transportowe, Bezpieczeństwo w Transporcie).
26 Podstawowe rozkłady prawdopodobieństwa
Rys. 5.2.4. Przykładowe wykresy funkcji gęstości rozkładu Erlanga
5.2.7. Rozkład 2
Def. 5.2.7. Zmienna losowa X ma rozkład chi-kwadrat 2, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
0 , 0
,
(5.2.25)
, 0 , 1, 2, 3, &
"
2
gdzie k jest parametrem rozkładu nazywanym liczbą stopni swobody.
Rozkład 2 o k stopniach swobody zapisuje się często w postaci .
Dystrybuanta rozkładu określona jest wzorem
0 , 0
,
(5.2.26)
, 0, 1, 2, 3, &
Funkcja charakterystyczna ma postać:
(5.2.27)
Istnieją wszystkie momenty zwykłe i centralne, przy czym:
2 4 & 2 2
(5.2.28)
, 2 , 2
Ciągłe rozkłady prawdopodobieństwa 27
Wraz ze wzrostem parametru k rozkład dąży do rozkładu , 2 oraz
"
zmienna losowa 2 dąży do rozkładu 2 1, 1 .
"
Rozkład jest rozkładem gamma z parametrem skali b = 0,5 i parametrem kształtu
p = (k = 1, 2, & ). Stąd:
1) z addytywności rozkładu gamma względem parametru kształtu suma niezależnych
zmiennych losowych o rozkładzie 2 o k1, k2, & , kn stopniach swobody ma rozkład
2 o k = k1 + k2 + & + kn stopniach swobody,
2) jeśli X ma rozkład (b,p) gdzie 2p = k (k = 1, 2, & ), to zmienna losowa Y=2bX ma
rozkład 2 o 2p = k stopniach swobody,
3) rozkład Erlanga E( ,n) jest rozkładem chi-kwadrat o 2n stopniach swobody ;
fakt ten wykorzystuje się przy szacowaniu kwantyli rozkładu Erlanga za pomocą tablic
rozkładu chi-kwadrat.
Rys. 5.2.5. Przykładowe wykresy funkcji gęstości rozkładu chi-kwadrat
Ważną własnością rozkładu chi-kwadrat jest fakt, że suma kwadratów k nieza-
leżnych zmiennych losowych o jednakowym rozkładzie N(0,1) ma rozkład chi-kwadrat
o k stopniach swobody. Stąd zmienna losowa Y będąca kwadratem standaryzowanej
zmiennej losowej X o rozkładzie N(m,) ma rozkład chi-kwadrat o jednym stopniu
swobody, więc wartość oczekiwana, wariancja i funkcja gęstości wyrażają się wzorami:
0 , 0
0, 1, (5.2.29)
, 0
"
Rozkład chi-kwadrat można rozszerzyć: zmienna losowa Y ma rozkład chi-kwadrat o k
stopniach swobody i wartości oczekiwanej k2 jeśli jest sumą kwadratów k niezależ-
nych zmiennych losowych o rozkładzie normalnym N(0,). Tak określony rozkład jest
rozkładem gamma z parametrami: p = i b = . Wariancja rozkładu jest równa 2k4.
28 Podstawowe rozkłady prawdopodobieństwa
5.2.8. Uogólniony rozkład gamma
Def. 5.2.8. Zmienna losowa X ma rozkład uogólniony gamma, jeśli gęstość roz-
kładu prawdopodobieństwa f(x) określona jest wzorem
0 , 0
(5.2.30)
, 0, , , 0
gdzie b jest parametrem skali, a p i parametrami kształtu.
Rozkład ten zapisuje się (b,p,).
Dystrybuanta rozkładu określona jest wzorem
0 , 0
,
(5.2.31)
, 0, , , 0
Momenty zwykłe, wartość oczekiwaną i wariancję wyznacza się ze wzorów:
(5.2.32)
, , Var X =
Spośród własności uogólnionego rozkładu gamma należy wymienić:
1. Jeśli X ma rozkład (b,p,), to zmienna losowa Y = bX ma rozkład (1,p,).
2. Jeśli zmienna losowa X ma rozkład ma rozkład (b,p,), to zmienna losowa Y = aX
(a > 0) ma rozkład ( ,p,), a zmienna losowa Z = Xc (c > 0) ma rozkład (bc,p, ).
3. Jeśli X ma rozkład (b,p,), to zmienna losowa Y = X ma rozkład (b,p), a zmienna
losowa Z = (bX) ma rozkład (1,p).
4. Jeśli zmienne losowe X1, X2, & , Xn są niezależne o rozkładach (bj,pj,j), to zmienna
losowa:
ma rozkład (1,p,1), gdzie p = p1 + p2 + .. + pn.
5. Jeśli zmienne losowe X1, X2, & , Xn są niezależne o rozkładach (b,pj,j), to zmienna
losowa:
ma rozkład (b,p,1), gdzie p = p1 + p2 + .. + pn.
6. W zależności od wartości parametrów rozkładu (b,p,), otrzymujemy różne rozkła-
dy, w szczególności:
a) (b,p,1) jest rozkładem gamma,
b) (b,1,) jest rozkładem Weibulla,
c) (b,1,1) jest rozkładem wykładniczym,
d) ( , ,1) jest rozkładem chi-kwadrat o k stopniach swobody,
Ciągłe rozkłady prawdopodobieństwa 29
e) (" , ,2) jest rozkładem chi o k stopniach swobody,
f) (" , 1,2) jest rozkładem Rayleigha,
g) (", ,2) jest rozkładem Maxwella,
h) ( , ,1) jest rozkładem kwadratu zmiennej losowej N(0,),
i) (", ,2) jest tzw. rozkładem półnormalnym (rozkładem normalnym ucię-
tym z dołu w zerze.
Uogólniony rozkład gamma przedstawiany bywa w postaci (,p',ą)27, dla któ-
rego funkcja gęstości jest postaci:
0 , 0
2
(5.2.33)28
, 0, , 2 , 0
Wzór ten otrzymujemy ze wzoru 5.2.29 podstawiając: ą = , = b = bą, p' = p = pą.
Momenty zwykłe, wartość oczekiwaną i wariancję wyznacza się ze wzorów:
(5.2.34)
, Var X =
5.2.9. Rozkłady chi, Rayleigha i Maxwella
Def. 5.2.9.1. Zmienna losowa X ma rozkład chi, jeśli gęstość rozkładu prawdo-
podobieństwa f(x) określona jest wzorem
0 , 0
2 2
(5.2.35)
2
, 0 , 1, 2, &
"
2
gdzie parametr k nazywany jest liczbą stopni swobody. Rozkład ten zapisywany bywa
jako k.
Momenty zwykłe, wartość oczekiwana i wariancja są odpowiednio równe:
27
Jeśli nie będzie prowadziło to do nieporozumień, będziemy używali oznaczenia p zamiast p'.
28
Można rozszerzyć zastępując warunek ą, p > 0 warunkiem ąp > 0, wtedy funkcja gęstości przyjmie postać
0 , 0
| | 2
, , , 0
30 Podstawowe rozkłady prawdopodobieństwa
"2 ,
2n 1
"2Ą , dla k 2n, n 1, 2, &
2 n 1 !
2Ą 2 n 1 ! 2n 1
"
, dla k 2n 1, n 1, 2, &
2Ą 2n 1
(5.2.36)
, 1, 2, &
Ą 2n 1
2n , dla k 2n, n 1, 2, &
2 n 1 !
2 n 1 ! 2n 1
2n 1 , dla k 2n 1, n 1, 2, &
Ą 2n 1
Jeśli Y1, Y2, & , Yk są niezależnymi zmiennymi losowymi N(0,1), to zmienna losowa
ma rozkład chi o k stopniach swobody. Inaczej, jeśli Y ma rozkład chi-kwadrat o k
stopniach swobody, to zmienna losowa X = ma rozkład chi o k stopniach swobody.
"
Analogicznie jak w przypadku rozkładu chi-kwadrat, rozkład chi można rozszerzyć na
przypadek zmiennych losowych N(0,) tak zdefiniowany rozkład jest rozkładem
(", ,2). Wtedy gęstość ma postać:
0 , 0
2
2
1
(5.2.37)
2
, 0, 0, 1, 2, &
"
2
Wartość oczekiwaną i wariancję otrzymujemy mnożąc wartość oczekiwaną ze
wzorów 5.2.34 przez , a wariancję przez 2.
W szczególnych przypadkach powyższy rozkład nosi nazwę rozkładu Rayleigha (k = 2)
i Maxwella (k = 3).
Def. 5.2.9.2. Zmienna losowa X ma rozkład Rayleigha, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
0 , 0
2
1
(5.2.38)
2
, 0, 0
Ciągłe rozkłady prawdopodobieństwa 31
Dystrybuanta ma postać:
0 , 0
2
(5.2.39)
1
2
1 , 0, 0
Momenty zwykłe, wartość oczekiwana i wariancja są odpowiednio równe:
2 ! , 2
"2
2 2 2 1! , 2 1
(5.2.40)
2
2
"
, 2
2 2
Jeśli Y1, Y2, są niezależnymi zmiennymi losowymi N(0,), to zmienna losowa
ma rozkład Rayleigha (( " , 1,2)).
Def. 5.2.9.3. Zmienna losowa X ma rozkład Maxwella, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
0 , 0
2 1 2
(5.2.41)
2
, 0, 0
2
"
Dystrybuanta ma postać:
0 , 0
2
(5.2.42)
1 2Ś , , 0, 0
2
"
gdzie Ś , dystrybuanta rozkładu normalnego N(0,).
Momenty zwykłe, wartość oczekiwana i wariancja są odpowiednio równe:
2 1 !! , 2
2 2 3
"
1
2 2 ! , 2 1
"
2
"
(5.2.43)
8
" 3 8
, 3 ,
Jeśli Y1, Y2, Y3 są niezależnymi zmiennymi losowymi N(0,), to zmienna losowa
ma rozkład Maxwella ((", ,2)).
32 Podstawowe rozkłady prawdopodobieństwa
5.2.10. Rozkład Weibulla
Def. 5.2.10. Zmienna losowa X ma rozkład Weibulla, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
0 , 0
(5.2.44)
, , , 0
gdzie b jest parametrem skali, a parametrem kształtu.
Rozkład Weibulla oznaczany bywa przez W(b,), jest uogólnionym rozkładem gamma
(b,1,). Często rozkład Weibulla definiowany jest poprzez parametr = b.
Dystrybuanta ma postać:
0 , 0
(5.2.45)
1 , , , 0
Momenty zwykłe, wartość oczekiwaną i wariancję wyznacza się ze wzorów:
, , Var X = 1 1 (5.2.46)
Rys. 5.2.6. Przykładowe wykresy funkcji gęstości rozkładu Weibulla
Ciągłe rozkłady prawdopodobieństwa 33
Niektóre własności rozkładu Weibulla:
1. Dla = 1 rozkład Weibulla staje się rozkładem wykładniczym z parametrem b
(E(b) = W(b,1) = (b,1) = (b,1,1)).
2. Jeśli X ma rozkład E(b) to zmienna losowa Y = ma rozkład W(b,).
3. Rozkład W(b,2) jest rozkładem Rayleigha.
Jeśli X ma rozkład W(b,), to zmienna losowa Y = bX ma rozkład W(1,).
5.2.11. Rozkład beta
Def. 5.2.11. Zmienna losowa X ma rozkład beta, jeśli gęstość rozkładu prawdo-
podobieństwa f(x) określona jest wzorem
0 , 0,1
1
(5.2.47)
, 0,1 , , 0
,
gdzie p, q są parametrami rozkładu, a B(p,q) funkcją beta Eulera29.W ten sam sposób
oznaczamy rozkład beta z parametrami p i q.
Dystrybuanta ma postać:
0 , 0
1
1 , 0,1 (5.2.48)30
,
1 , 1
Istnieją wszystkie momenty:
1 & 1
1 & 1
(5.2.49)
, ,
Jeśli dokonamy podstawienia p = r + 1, q = s r +1, to przy założeniu, że s i r są licz-
bami naturalnymi, gęstość rozkładu beta można przedstawić w postaci:
0 , 0,1
(5.2.50)
1 1 , 0,1 , , naturalne,
Postać ta, nieprzypadkowo, przypomina budową rozkład Bernoulliego.
29
Funkcja beta Eulera B(p,q) = 1 ; , , ; , 1 ; 1, ;
! ! &
, ; , ; , 1 0 1 ; , .
! &
30
Jx(p,q) = , 1 jest tzw. niepełną funkcją beta; Jx(p,q) = 1 J1 x(q,p).
34 Podstawowe rozkłady prawdopodobieństwa
Rys. 5.2.7. Przykładowe wykresy funkcji gęstości rozkładu beta
Warto zauważyć, że:
1. Jeśli p = q, to rozkład beta jest symetryczny względem wartości 0,5. Wykresy funk-
cji gęstości rozkładów B(p,q) i B(q,p) są symetryczne względem prostej x = 0,5.
2. Jeśli p = q =1, to rozkład beta jest rozkładem jednostajnym na odcinku [0,1].
3. Jeśli p = 2 i q = 1 lub p = 1 i q = 2, to rozkład beta jest rozkładem trójkątnym pro-
stokątnym na odcinku [0,1] o punkcie wierzchołkowym (1,2) lub (0,2) odpowiednio.
4. Rozkład B(p,1) jest rozkładem potęgowym o parametrze skali b = 1.
5. Jeśli zmienna losowa X ma rozkład potęgowy o parametrach b i , to zmienna loso-
wa ma rozkład B(,1).
6. Rozkład dwumianowy Bn(p) związany jest z rozkładem beta zależnością:
1 1, 1 , 1 , 0,1, & , .
7. Jeśli zmienna losowa ciągła ma rozkład skupiony na przedziale właściwym i posiada
momenty określone wzorem 5.2.49, to ma rozkład beta.
8. Jeśli X i Y mają rozkład odpowiednio (b,p1) i (b,p2), to zmienne losowe U = X+Y
i są niezależne i mają rozkłady odpowiednio (b,p1+p2) i B(p1,p2).
5.2.12. Rozkład potęgowy
Def. 5.2.12. Zmienna losowa X ma rozkład potęgowy, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
, 0, , , 0
(5.2.51)
0 , 0,
gdzie b jest parametrem skali, parametrem kształtu.
Ciągłe rozkłady prawdopodobieństwa 35
Dystrybuanta ma postać
0 , 0
(5.2.52)
, 0, , , 0
1 ,
Wartość oczekiwana i wariancja są równe:
,
(5.2.53)
Warto zauważyć, że:
1. Rozkład potęgowy o parametrze skali b i parametrze kształtu = 1 jest rozkładem
jednostajnym na odcinku [0,b].
2. Rozkład potęgowy o parametrze skali b i parametrze kształtu = 2 jest rozkładem
trójkątnym prostokątnym na odcinku [0,b] o punkcie wierzchołkowym , .
3. Jeśli zmienna losowa X ma rozkład potęgowy z parametrami b i , to zmienna losowa
ma rozkład ma rozkład potęgowy o parametrze skali 1 i parametrze kształ-
tu , a zmienna losowa ma rozkład wykładniczy z parametrem (EZ = ).
4. Rozkład potęgowy o parametrach b, jest przypadkiem granicznym uogólnionego
rozkładu gamma , , przy warunku p = const = i "31.
Rys. 5.2.8. Przykładowe wykresy funkcji gęstości rozkładu potęgowego z parametrem b = 1
31
M. Fisz, Rachunek prawdopodobieństwa i statystyka matematyczna, PWN Warszawa 1967, s. 72.
36 Podstawowe rozkłady prawdopodobieństwa
5.2.13. Rozkład Cauchy ego
Def. 5.2.13. Zmienna losowa X ma rozkład Cauchy ego, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
1
, 0 , (5.2.54)
gdzie a, m parametry rozkładu.
Rozkład Cauchy ego zapisuje się w postaci C(a,m). Nazywany jest również rozkładem
Lorentza lub Breita-Wignera.
Dystrybuanta ma postać
1 1
(5.2.55)
arctan
2
Funkcja charakterystyczna ma postać
| |
| |
= exp( (5.2.56)
Ponieważ funkcja charakterystyczna nie jest różniczkowalna w punkcie t = 0 nie istnie-
ją momenty zwykłe i centralne rozkładu (jak i kurtoza i współczynnik skośności). Roz-
kład jest symetryczny względem prostej x = m i ma w punkcie m medianę i modę.
Dla rozkładu Cauchy ego spełnione jest twierdzenie o dodawaniu: suma nieza-
leżnych zmiennych losowych o rozkładach Cauchy ego C(a1,m1) i C(a1,m2) ma rozkład
Cauchy ego C(a1+a2,m1+m2).
Warto zauważyć, że jeśli zmienne losowe X i Y mają odpowiednio rozkłady
N(0,1) i 1 (półnormalnym z parametrem = 1), to zmienna losowa Z = ma rozkład
Cauchy ego C(0,1) jest to jednocześnie rozkład t-Studenta z 1 stopniem swobody.
Rys. 5.2.9. Przykładowe wykresy funkcji gęstości rozkładu Cauchy ego
Ciągłe rozkłady prawdopodobieństwa 37
5.2.14. Rozkład Laplace a
Def. 5.2.14. Zmienna losowa X ma rozkład Laplace a, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
| |
(5.2.57)
, 0 ,
2
gdzie , m parametry rozkładu.
Rozkład Laplace a zapisuje się w postaci L(,m). Nazywany jest również rozkładem
podwójnie wykładniczym.
Dystrybuanta ma postać
1
,
2
(5.2.58)
1
1 , ,
2
Funkcja charakterystyczna ma postać
=
(5.2.59)
Rozkład jest symetryczny względem prostej x = m i ma w punkcie m medianę i modę.
Istnieją wszystkie momenty zwykłe i centralne:
2
,
(5.2.60)
0 , dla nieparzystych
!
, dla parzystych
Rys. 5.2.10. Przykładowe wykresy funkcji gęstości rozkładu Laplace a
38 Podstawowe rozkłady prawdopodobieństwa
5.2.15. Rozkład t-Studenta
Rozkład t-Studenta należy do podstawowych rozkładów statystyki matematycz-
nej
Def. 5.2.15. Zmienna losowa X ma rozkład t-Studenta, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
1
(5.2.61)
1 , 1, 2, &
" ,
gdzie parametr k nazywany jest liczbą stopni swobody.
Momenty zwykłe i centralne32 określone są tylko dla rzędu l < k, przy czym, jeśli rząd l
jest nieparzysty, to momenty są równe zero (ze względu na symetrię rozkładu)i wyra-
żają się wzorami:
0 , 3, 5, . . . , , 4, 6, &
"
(5.2.62)
0 1 , 2
Rozkład t-Studenta dosyć szybko
zbiega do rozkładu normalnego N(0,1)
(wariancja jest większa od jeden i mono-
tonicznie zbiega do 1 wraz ze wzrostem
k). W literaturze przyjmuje się, że w od-
niesieniu do dystrybuanty dla 30 stopni
swobody, a dla gęstości dla 100 stopni
swobody rozkład t-Studenta można za-
stąpić rozkładem N(0,1). W praktyce
najczęściej wykorzystuje się wartości tk,ą
spełniające warunek P(|tk| e" tk,ą) = ą. Ty-
powe tablice, dla wybranych wartości ą,
zawierają wartości tk,ą dla liczby stopni
swobody k od 1 do 30. Dla większej licz-
by stopni swobody korzysta się z rozkładu
N(1,1). Dokładniejsze oszacowanie moż-
na uzyskać stosując poprawkę:
tk,ą H" k[uą /(k-2+10ą)] dla ą < 0,2
tk,ą H" k[uą /(k-5(1-ą))] dla ą > 0,8
Rys. 5.2.11. Przykładowe wykresy funkcji gęsto-
gdzie P(|U| e" uą) = ą, U zmienna losowa
ści rozkładu t-Studenta
o rozkładzie N(0,1)33.
32
Ponieważ w tym przypadku, gdy istnieje EX, to EX = 0, więc momenty zwykłe i centralne (wokół wartości
średniej) są identyczne.
33
Szerzej na ten temat zob. M. Dębowska-Mróz, A. Rogowski, Aproksymacja niektórych rozkładów prawdopodo-
bieństwa, Logistyka nr 2/2010 (Logistyka nauka, materiały VII Konferencji Naukowo-Technicznej Logitrans
Logistyka, Systemy Transportowe, Bezpieczeństwo w Transporcie).
Ciągłe rozkłady prawdopodobieństwa 39
Warto zauważyć, że:
1. Dla k = 1 rozkład t-Studenta jest rozkładem Cauchy ego.
2. Jeśli zmienne losowe X i Y są niezależne i mają rozkłady odpowiednio N(0,1)
i chi-kwadrat o k stopniach swobody, to zmienna losowa ma roz-
"
"
kład t-Studenta o k stopniach swobody.
5.2.16. Rozkład F Snedecora
Def. 5.2.16. Zmienna losowa X ma rozkład F Snedecora, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
0 , 0
(5.2.63)
, 0, , 1, 2, &
,
gdzie parametry k1, k2 nazywane są stopnia swobody.
Rozkład F Snedecora zapisuje się często w postaci F(k1,k2).
Momenty zwykłe i centralne istnieją tylko wtedy, gdy spełniona jest nierówność
k2 > 2l, gdzie l rząd momentu i wyrażają się wzorami:
dla 2 ,
(5.2.64)
dla 2 , dla 4
Dla rozkładu F Snedecora prawdziwe są następujące własności:
1. Jeśli zmienne losowe X i Y mają rozkłady chi-kwadrat o odpowiednio k1 i k2 stop-
niach swobody, to zmienna losowa : ma rozkład F(k1,k2).
2. Jeśli zmienna losowa Y ma rozkład Z Fishera, to zmienna losowa X = e2Y ma rozkład
F Snedecora.
3. Jeśli zmienna losowa X ma rozkład F(k1,k2), to X = Y 1, gdzie zmienna losowa Y ma
rozkład F(k2,k1).
4. Jeśli zmienne losowe X i Y mają rozkłady odpowiednio F(k1,k2), F(k2,k1), to
P(X < x) = 1 P(Y < x 1) = P(Y > x 1).
5. Jeśli zmienna losowa X ma rozkład F(k1,k2), to zmienna losowa ma roz-
kład beta , .
6. Jeśli zmienna losowa X ma rozkład beta , , k1, k2 = 1, 2, & , to zmienna
losowa ma rozkład F(k1,k2).
40 Podstawowe rozkłady prawdopodobieństwa
Rys. 5.2.12. Przykładowe wykresy funkcji gęstości rozkładu F Snedecora
5.2.17. Rozkład Z Fishera
Def. 5.2.17. Zmienna losowa X ma rozkład Z Fishera, jeśli gęstość rozkładu
prawdopodobieństwa f(x) określona jest wzorem
2
, , , 1, 2, &
(5.2.65))
,
gdzie parametry k1, k2 nazywane są stopnia swobody.
Rozkład Z Fishera zapisuje się często w postaci Z(k1,k2).
Wartość oczekiwana i wariancja są równe:
0,
(5.2.66)
Ciągłe rozkłady prawdopodobieństwa 41
Dla rozkładu Z Fishera prawdziwe są następujące własności:
1. Jeśli zmienne losowe X i Y mają rozkłady chi-kwadrat o odpowiednio k1 i k2 stop-
niach swobody, to zmienna losowa
ln : ln ln ln ma rozkład Z(k1,k2).
2. Jeśli zmienna losowa Y ma rozkład F Snedecora, to zmienna losowa X = 0,5lnY ma
rozkład Z Fishera.
Rys. 5.2.13. Przykładowe wykresy funkcji gęstości rozkładu Z Fishera
Wyszukiwarka
Podobne podstrony:
TABLICE PODSTAWOWYCH ROZKŁADÓW PRAWDOPODOBIEŃSTWAPrawdopodobieństwo Rozkład dwumianowy Rozkład normalnyRozklad gestosci prawdopodobienstwaTablice statystyczne gęstość prawdopodobieństwa rozkładu normalnegoPrawdopodobieństwo, tw Bayesa, rozkład Bernoulliego i PoissonaTablice statystyczne całka z gestości prawdopodobieństwa rozkładu normalnegoRozkład trójkątnyRachunek prawdopodobieństwa teoriaNiBS 3 Rozklad trojkatny Modele Starzenie obiektow nieodnawianychTablice Dystrybuanta rozkładu normalnego7 rozklady stacjonarne2więcej podobnych podstron