POLITECHNIKA CZSTOCHOWSKA
INSTYTUT MATEMATYKI
Oleg Tikhonenko
WYKAADY ZE STATYSTYKI
MATEMATYCZNEJ
Częstochowa 2010
LITERATURA
1. Plucińska A, Pluciński E. Probabilistyka. Warszawa: WNT, 2000.
2. Hellwig Zd. Elementy rachunku prawdopodobieństwa i statystyki matematycz-
nej. Warszawa: PWN, 1995.
3. Maliński M. Statystyka matematyczna wspomagana komputerowo. Gliwice:
Wyd. Politechniki Śląskiej, 2000.
4. Durka P.J. Wstęp do współczesnej statystyki. Warszawa: Wyd. Adamantan,
2003.
5. =4@>=>2 .., >?KB>2 .., @8=3;07 ./. "5>@8O 25@>OB=>AB59 8 <0-
B5<0B8G5A:0O AB0B8AB8:0. !0=:B5B5@1C@3: 8B5@, 2004.
6. 5;L<0= ./. 5H5=85 <0B5<0B8G5A:8E 7040G A@54AB20<8 Excel. !0=:B
5B5@1C@3: 8B5@, 2003.
7. 0;8=:>2A:89 ... "5>@8O 25@>OB=>AB59 8 <0B5<0B8G5A:0O AB0B8-
AB8:0. ('0ABL 2. 0B5<0B8G5A:0O AB0B8AB:0). ><5;L: 74. ><5;L-
A:>3> 3>AC40@AB25==>3> C=825@A8B5B0 8<. $. !:>@8=K, 2004.
2
1. WSTP
1.1. Przedmiot statystyki matematycznej
Statystyka matematyczna opiera się na rachunku prawdopodobieństwa i zajmuje
się zagadnieniami w pewnym sensie odwrotnymi.
W rachunku prawdopodobieństwa zajmowaliśmy zmiennymi losowymi (ZL) ze
znanymi rozkładami albo doświadczeniami losowymi, których własności były znane
w całości. Przedmiotem rachunku prawdopodobieństwa jest wyznaczenie prawdopo-
dobieństw pewnych zdarzeń w ramach zupełnie określonego modelu probabilistycz-
nego.
Często jednak mamy do czynienia z niezupełnie określonymi doświadczenia-
mi, których pewne wyniki są znane, i na podstawie tych wyników należy wyjaśnić
własności doświadczeń. Obserwujący ma do dyspozycji zespół wyników (najczęściej
liczbowych) otrzymanych przez powtórzenie tego samego doświadczenia losowego
w tych samych warunkach.
Wówczas powstają na przykład następujące zagadnienia:
1. Jeżeli obserwujemy pewną ZL, to w jaki sposób możemy znając zespół
jej wartości (które są wynikiem pewnej liczby identycznych doświadczeń
losowych) uzyskać w miarę możności dokładne wnioski co do jej rozkła-
du?
2. Jeżeli obserwujemy pojawienie się jednocześnie dwóch albo więcej cech,
tzn. mamy zespół kilka ZL, to co możemy w miarę możności dokładnego
powiedzieć na temat ich zależności? W ogóle, czy istnieje wskazana za-
leżność i jakiego ona jest rodzaju?
Często z natury fizycznej badanego zjawiska wynikają pewne przypuszczenia
dotyczące charakteru rozkładu badanej cechy (ZL). W takim przypadku należy na
podstawie wyników doświadczeń potwierdzić albo odrzucić wskazane przypuszcze-
nia (hipotezy). Należy pamiętać jednak, że odpowiedzi tak albo nie możemy tu
używać z pewnym stopniem wiarygodności, nie stuprocentowo, oraz przedłużając w
czasie ciąg doświadczeń (w tych samych warunkach) uzyskujemy w ciągu czasu co
raz dokładniejsze wnioski. Najwięcej sprzyjająca dla naszych badań jest sytuacja,
gdy można z pewnością zakładać istnienie pewnych własności badanego doświad-
czenia np. istnienie zależności funkcyjnej badanych cech, normalność rozkładu ce-
chy, jego symetryczność, istnienie gęstości albo charakter dyskretny badanych ZL
itd.
3
Zatem o statystyce matematycznej ma sens mówić, jeżeli:
mamy do czynienia z doświadczeniem losowym którego własności są zu-
pełnie albo częściowo nieznane,
możemy powtórzyć wskazane doświadczenie w tych samych warunkach
wiele (teoretycznie nieskończenie wiele) razy.
Przykładami takich ciągów doświadczeń służą wypytywanie w badaniach socjo-
logicznych, zespół wskazników ekonomicznych albo ciąg orłów i reszek otrzymany
w wyniku tysiąckrotnego rzucania monetą.
1.2. Podstawowe pojęcia metody reprezentacyjnej
Niech x: W R będzie ZL, którą obserwujemy w doświadczeniu losowym. Bę-
dziemy ją nazywać ZL teoretyczną. Przez F(x) = P{x < x} oznaczmy dystrybuantę
(nieznaną) ZL x, którą również nazwiemy dystrybuantą teoretyczną. Teoretycznym
nazwiemy także rozkład Px ZL x, zupełnie albo częściowo nieznany.
Zakładamy, że dokonując n-krotnego powtórzenia w warunkach identycznych
oraz niezależnie od siebie danego doświadczenia otrzymaliśmy liczby x1, ..., xn (są to
wartości, które przybiera ZL x w pierwszym, drugim itd. powtórzeniu).
Zespół liczb (wektor) x = (x1, ..., xn ) nazywamy próbką konkretną o liczności n z
rozkładu Px .
W ciągu realizowanych doświadczeń próbką konkretną tworzy zespół liczb. Na-
tomiast, jeżeli wskazany ciąg doświadczeń powtórzymy jeszcze raz, to otrzymamy
zamiast danych liczb nowe liczby. Np. zamiast liczby x1 pojawi się nowa liczba re-
prezentująca jedną z możliwych wartości ZL x. Oznacza to, że wyniki wszystkich
możliwych niezależnych n doświadczeń możemy przedstawić w postaci zespołu ZL
= (x1, ..., xn ) , gdzie ZL x1, ..., xn są wzajemnie niezależne oraz każda z nich ma
rozkład Px (identyczny z rozkładem ZL x). Wówczas zespół liczb x1, ..., xn jest re-
alizacją zespołu ZL x1, ..., xn (czyli wektor x jest realizacją wektora losowego ).
Mówimy, że zespół ZL = (x1, ..., xn ) tworzy próbkę abstrakcyjną o liczności n z
rozkładu Px , jeżeli ZL x1, ..., xn są wzajemnie niezależne i spełniają ten sam rozkład
Px (o dystrybuancie F(x) = P{x < x}).
Powiedzmy nieformalnie, że próbka abstrakcyjna jest n kopii niezależnych ZL
teoretycznej x.
4
Charakterystyki liczbowe ZL teoretycznej x nazywamy teoretycznymi lub gene-
ralnymi charakterystykami. Np. Ex = a jest teoretyczna (generalna) wartość oczeki-
wana; Dx = s2 jest teoretyczna (generalna) wariancja.
Według dawnej tradycji statystycznej my nadal będziemy różne pojęcia oznaczać
tymi samymi symbolami. Mianowicie, próbkę abstrakcyjną i próbkę konkretną bę-
dziemy oznaczali jako x = (x1, ..., xn ) i nazywali próbką o liczności n z rozkładu Px .
Czy mamy na myśli próbkę konkretną czy abstrakcyjną, wynika to z charakteru za-
gadnienia, którym obecnie się zajmujemy. W badaniach teoretycznych zwykle mamy
do czynienia z próbką abstrakcyjną (i wówczas składowe wektora x są ZL), w zasto-
sowaniach (w warunkach, gdy należy uzyskać pewne wnioski na podstawie konkret-
nego materiału statystycznego) najczęściej mamy do czynienia z próbką konkretną (i
wówczas składowe wektora x są liczbami).
Na podstawie danych próbki należy wnioskować o rozkładzie ZL x. Rozkład ZL
zwykle jest charakteryzowany dystrybuantą, gęstością albo tablicą wartości, albo ze-
społem charakterystyk liczbowych Ex , Dx , Exk itd. Tj. na podstawie danych próbki
należy potrafić zbudować przybliżenia dla wszystkich tych charakterystyk.
Metoda uzyskania nieznanych charakterystyk rozkładu ZL na podstawie danych
próbki nosi nazwę metody reprezentacyjnej.
1.3. Rozkład próbki
Rozpatrzmy próbkę x1, ..., xn odpowiadającą pewnemu zdarzeniu elementarnemu
w0 , tj. zespół liczb x1 = x1(w0), ..., xn = xn (w0 ) . W odpowiedniej przestrzeni proba-
bilistycznej wprowadzmy dyskretną ZL x* , przyjmującą wartości x1, ..., xn z praw-
n
dopodobieństwami 1 n (jeżeli którekolwiek z tych wartości są jednakowe, to doda-
jemy do siebie prawdopodobieństwo 1 n odpowiadającą liczbę raz, tj. niektóre z
liczb x1, ..., xn mogą być równe siebie). Tablica rozkładu ZL x* wygląda następują-
n
cą:
x1 ... xn
x*
n
1 n ... 1 n
P
Jej dystrybuanta ma postać
1 liczba xi (-Ą; y)
*
Fn (y) = P{x* < y} = = .
n
n n
xi< y
Rozkład ZL x* nazywamy rozkładem empirycznym albo rozkładem próbki.
n
Obliczmy wartość oczekiwaną (WO) oraz wariancję ZL x* wprowadzając jed-
n
nocześnie ich oznaczenia (chodzi tu już o próbce abstrakcyjnej):
5
n n n n
1 1
Ex* = xi = = (xi - Ex* )2 = = s2 .
1 1 x = x , Dx* (x - x)2
n i n n i
n n n n
i=1 i =1 i =1 i=1
W sposób analogiczny obliczmy moment rzędu k
n n
E(x* )k = xi k = = xk .
1 1 x k
n i
n n
i =1 i=1
W przypadku ogólnym oznaczmy przez g(x) wielkość
n
1
Eg(x* ) =
g(x ) = g(x).
n i
n
i=1
Jeżeli przy określeniu wszystkich wprowadzonych przez nas charakterystyk
próbkę x1, ..., xn uważaliśmy za zespół ZL, to otrzymane charakterystyki Fn*(y) , x ,
s2 , xk , g(x) też są zmiennymi losowymi. Realizacje tych charakterystyk służą es-
tymatorami (przybliżeniami) odpowiednich nieznanych charakterystyk prawdziwego
rozkładu.
Taki wniosek wynika z tego, że rozkłady ZL x* i x (czyli ZL x1) w pewnym
n
sensie są bliskie dla dużych n.
Rozpatrzmy np. n rzutów symetryczną kostką sześcienną. Niech xi {1, ..., 6}
jest liczbą punktów otrzymanych w i-tym rzucie, i =1, n . Załóżmy, że jedynka w
próbce wypadła n1 razy, dwójka n2 razy itd. Wówczas ZL x* będzie przyjmowała
n
wartości 1, ..., 6 z prawdopodobieństwami n1 n, ..., n6 n odpowiednio. Jednak wska-
zane stosunki ze wzrostem n zbliżają się do 1/6 na mocy prawa wielkich liczb (patrz
rachunek prawdopodobieństwa). Oznacza to, że rozkład ZL x* w pewnym sensie
n
zbliża się do prawdziwego rozkładu liczby punktów, wypadających w rzucie kostką
symetryczną.
1.4. Dystrybuanta empiryczna, histogram
Ponieważ rozkład nieznany Px można określić np. za pomocą dystrybuanty
F( y) = P{x1 < y}, to możemy wprowadzić na podstawie danych próbki estymator tej
funkcji.
Definicja 1. Dystrybuanta empiryczna odpowiadająca próbce x = (x1, ..., xn ) o
liczności n jest to funkcja losowa Fn* : R W [0;1], która dla każdego y R okre-
śla się jako
n
liczba xi (-Ą; y) 1
*
Fn ( y) = =
I(x < y).
i
n n
i=1
6
Tu
1, gdy xi < y,
I(xi < y) =
0 w przypadku przeciwnym
jest funkcja wskaznikowa zdarzenia {xi < y}. Dla każdego y funkcja I(xi < y) jest
oczywiście ZL, mającą rozkład Bernoulliego z parametrem p = P{xi < y} = F(y) .
Innymi słowy, dla dowolnego y wielkość F(y) będąca prawdziwym prawdopo-
dobieństwem tego, że ZL xi przyjmuje wartości mniejsze niż y, oceniamy jako część
elementów próbki mniejszych niż y.
Jeżeli elementy próbki x1, ..., xn uporządkować (na każdym zdarzeniu elementar-
nym) w kierunku zwiększenia wartości, to otrzymujemy nowy zespół ZL
x(1) Ł x(2) Ł ... Ł x(n) ,
który nazywa się szeregiem wariacyjnym, gdzie w szczególności
x(1) = min{x1, ..., xn}, x(n) = max{x1, ..., xn}. Element x(k) , k =1, n, nazywa się k-
tym elementem szeregu wariacyjnego albo k-tą statystyką pozycyjną.
Przykład 1. Próbka: x = (0; 2; 1; 2,6; 3,1; 4,6; 1; 4,6; 6; 2,6; 6; 7; 9; 9; 2,6). Sze-
reg wariacyjny: (0; 1; 1; 2; 2,6; 2,6; 2,6; 3,1; 4,6; 4,6; 6; 6; 7; 9; 9).
Wykres dystrybuanty empirycznej (rys. 1.1) ma skoki w punktach wartości prób-
ki, wielkość skoku w punkcie xi jest równa m n, gdzie m jest liczbą elementów
próbki o wielkości xi .
Fn*(y)
1
0,5
0 1 2 3 4 5 6 7 8 9 10
y
Rys. 1.1
Można wyznaczyć dystrybuantę empiryczną według szeregu wariacyjnego:
7
0, gdy y Ł x(1) ,
k
*
Fn ( y) = , gdy x(k) < y Ł x(k +1) ,
n
1, gdy y > x(n).
Inną charakterystyką rozkładu jest tablica (dla rozkładów dyskretnych) albo gę-
stość (dla rozkładu absolutnie ciągłego). Empirycznym analogiem tablicy albo gęsto-
ści jest histogram.
Histogram buduje się według grupowanych danych próbki. Przewidywany zakres
wartości ZL x (albo zakres danych próbki) dzieli się niezależnie od próbki na pewną
liczbę przedziałów (nie koniecznie o tej samej długości). Niech A1, ..., Ak są prze-
działy na prostej, które nazywamy przedziałami grupowania. Oznaczmy przez ,
j
j =1, k , liczbę elementów próbki które trafiły do przedziału Aj :
n k
={liczba xi Aj} =
I(x Aj ) , gdzie = n . (1.1)
j i j
j=1
i =1
Na każdym z przedziałów Aj budujemy prostokąt, którego pole jest proporcjo-
nalne do . Pole sumaryczne wszystkich prostokątów ma być równe jedynce. Niech
j
j
l jest długością przedziału Aj . Wówczas wysokość f prostokąta jest f = .
j j j
nl
j
Otrzymaną figurę nazywamy histogramem.
Przykład 2. Mamy szereg wariacyjny (patrz przykład 1)
(0; 1; 1; 2; 2,6; 2,6; 2,6; 3,1; 4,6; 4,6; 6; 6; 7; 9; 9)
Odcinek [0; 10] dzielmy na 4 przedziały o jednakowej długości. Do przedziału A1 =
= [0; 2,5) wpadło 4 elementy próbki, do A2 = [2,5; 5) 6 elementów, do A3 = [5; 7,5)
3, do A4 = [7,5;10) 2. Budujemy histogram (rys. 1.2). Na rys. 1.3 jest przedsta-
wiony histogram dla tej samej próbki, dla którego odcinek [0; 10] został podzielony
na 5 przedziałów o jednakowej długości.
Uwaga 1. Na podstawie wielu doświadczeń przyjęto, że najlepszą liczbą prze-
działów grupowania jest k = k(n) =1+ [3,322lg n].
Tu lg n jest logarytmem dziesiętnym, mamy zatem k = 1 + [log210 log10 n] =
= 1+ [log2 n], tj. jeżeli liczność próbki wzrasta dwukrotnie, liczność przedziałów
grupowania wzrasta o jeden.
Zauważmy, że im większa jest liczba przedziałów grupowania tym lepiej. Nato-
miast jeżeli wybierzmy tę liczbę np. bliską n, to ze wzrostem n histogram nie zbliża
się do krzywej gęstości.
Prawdziwe jest następujące stwierdzenie.
8
8/75
0 1 2 3 4 5 6 7 8 9 10 y
Rys. 1.2
Jeżeli gęstość f ( y) elementów próbki jest funkcją ciągłą, to przy n Ą oraz
k(n) Ą w taki sposób, że k(n) n 0 , w każdym punkcie y ma miejsce zbieżność
według prawdopodobieństwa histogramu do gęstości.
Z tego wynika, że wybór logarytmu w jakości oceny liczby przedziałów jest
słuszny, lecz nie jedyny z możliwych.
0,1
0 1 2 3 4 5 6 7 8 9 10
y
Rys. 1.3
9
1.5. Momenty empiryczne
Znajomość momentów ZL jest ważna, ponieważ wiele mówi o rodzaju oraz wła-
snościach jej rozkładu. Wprowadzmy analogi (empiryczne) nieznanych prawdziwych
momentów ZL.
Niech Ex = Ex1 = a , Dx = Dx1 = s2 , Exk = Ex1k = mk są WO teoretyczną, wa-
riancją i momentem k-go rzędu odpowiednio. Mamy już znajomość odpowiednich
charakterystyk rozkładu próbki Ex* = x , Dx* = s2 , E(x* )k = xk .
n n n
Charakterystyki teoretyczne Charakterystyki empiryczne
n
1
x =
x empiryczna wartość ocze-
i
Ex = Ex1 = a
n
i=1
kiwana (średnia z próbki)
n
1
s2 =
wariancja empirycz-
(x - x)2
i
Dx = Dx1 = s2
n
i =1
na, albo
n
1
2
s0 = wariancja empi-
(x - x)2
n -1i =1 i
ryczna nieobciążona
n
1
xk = moment empiryczny rzę-
x k
i
Exk = Ex1k = mk
n
i =1
du k
Ta lista charakterystyk liczbowych i ich estymatorów może być przedłużona.
Można np. rozpatrywać momenty centralne. W przypadku ogólnym
n
1
moment Eg(x) oceniamy jako g(x) =
g(x ).
i
n
i=1
1.6. Zbieżność charakterystyk empirycznych do odpowiednich
charakterystyk teoretycznych
Zostało przez nas wprowadzono trzy typy charakterystyk empirycznych, za któ-
rych pomocą oceniamy charakterystyki rozkładu ZL: dystrybuanta empiryczna, hi-
stogram, momenty empiryczne. Jeżeli wprowadzone estymatory są udane, to różnica
między nimi a prawdziwymi charakterystykami powinna dążyć do zera ze wzrostem
liczności próbki. Taką własność charakterystyk empirycznych nazywamy zgodno-
ścią. Pokażemy że wprowadzone charakterystyki posiadają taką własność.
10
1.6.1. Własności dystrybuanty empirycznej
Twierdzenie 1. Niech x = (x1, ..., xn ) jest próbką o liczności n rozkładu niewia-
*
domego Px o dystrybuancie F(y) . Niech Fn ( y) jest dystrybuantą empiryczną, od-
powiadającą wskazanej próbce. Wówczas dla dowolnego y R mamy
Fn*(y) p F( y) gdy n Ą .
Uwaga 2. Przy ustalonym y funkcja Fn*(y) jest ZL, ponieważ jej argumentami są
ZL x1, ..., xn . To samo można powiedzieć odnośnie histogramu i momentów empi-
rycznych.
Dowód. Z definicji 1 wynika, że
n
I(x < y)
i
*
i=1
Fn ( y) = .
n
ZL I(x1 < y) , I(x2 < y), ... są niezależne i mają ten sam rozkład o skończonej warto-
ści oczekiwanej:
EI(x1 < y) = 1 P{x1 < y} + 0 P{x1 ł y} = P{x1 < y} = F(y) < Ą .
Stosując prawo wielkich liczb w postaci Chinczyna mamy
n
I(x < y)
i
*
i=1
Fn ( y) = p
EI(x1 < y) = F( y) .
n
Wówczas ze wzrostem liczności próbki dystrybuanta empiryczna jest zbieżna
(według prawdopodobieństwa) do nieznanej dystrybuanty teoretycznej.
Prawdziwe jest bardziej ogólne twierdzenie, z którego wynika, że zbieżność dys-
trybuanty empirycznej do teoretycznej jest zbieżnością jednostajną.
Twierdzenie Gniedenki-Cantelliego. Niech x = (x1, ..., xn ) jest próbką o liczności
*
n z rozkładu niewiadomego Px o dystrybuancie F(y) . Niech Fn ( y) jest dystrybuan-
tą empiryczną, odpowiadającą wskazanej próbce. Wówczas
sup Fn*(y) - F( y) p
0 gdy n Ą .
yR
Uwaga 3. W warunkach twierdzeń 1 i Gniedenki-Cantelliego ma miejsce także
zbieżność prawie na pewno (z prawdopodobieństwem 1).
11
W przypadku ciągłej dystrybuanty F(x) szybkość zbieżności do zera w twier-
dzeniu Gniedenki-Cantelliego jest rzędu 1 n :
Twierdzenie Kołmogorowa. Niech x = (x1, ..., xn ) jest próbką o liczności n roz-
*
kładu nieznanego Px o dystrybuancie ciągłej F(x) . Niech Fn (x) jest dystrybuantą
empiryczną, odpowiadającą wskazanej próbce. Wówczas
n sup Fn*( y) - F(y) h gdy n Ą ,
yR
gdzie ZL h ma rozkład Kołmogorowa o dystrybuancie ciągłej
0, gdy x < 0,
Ą
K (x) =
j j2x2
, gdy x ł 0.
(-1) e-2
j=-Ą
Następujące własności dystrybuanty empirycznej są to po prostu dobrze znane
własności średniej arytmetycznej n składników niezależnych mających rozkład Ber-
noulliego.
W pierwszych dwóch punktach własności stwierdzamy, że ZL Fn*(y) ma WO
F( y)(1- F(y))
F(y) i wariancję , zmniejszającą się z szybkością proporcjonalną do
n
1 n. Punkt trzeci stwierdza, że Fn*(y) jest zbieżna do F(y) z szybkością 1 n .
Własność 1. Dla dowolnego y R mamy
1) EFn*(y) = F(y) , co oznacza, że Fn*(y) jest estymatorem nieobciążonym dla
F(y) ;
F(y)(1 - F( y))
2) DFn*( y) = ;
n
3) jeżeli 0 < F( y) <1, to n(Fn*(y) - F( y)) N0, F ( y)(1-F ( y)) , tj. Fn*(y) jest
estymatorem asymptotycznie normalnym dla F(y) ;
4) ZL nFn*(y) ma rozkład dwumianowy Bn, F ( y) .
Dowód. Zauważmy, że ZL I(x1 < y) ma rozkład Bernoulliego BF ( y) , a zatem
EI(x1 < y) = F( y) oraz DI(x1 < y) = F(y)(1 - F( y)) .
1) ZL I(x1 < y) , I(x2 < y), ... mają ten sam rozkład, dlatego
n n
I(x < y) EI(x < y)
i i
nEI(x1 < y)
*
i =1 i =1
EFn (y) = E = = = F(y) .
n n n
12
2) ZL I(x1 < y) , I(x2 < y), ... są niezależne i mają ten sam rozkład, dlatego
n n
I(x < y) DI(x < y)
i i
nDI(x1 < y) F( y)(1- F(y))
*
i =1 i=1
DFn ( y) = D = = = .
n n
n2 n2
3) Mamy na mocy centralnego twierdzenia granicznego (CTG)
n n
ć
I(x < y) I(x < y) - nF(y)
i i
*
i=1
n(Fn ( y) - F( y)) = n i=1 - F(y) = =
n
n
Ł ł
n
I(x < y) - nEI(x1 < y)
i
i =1
= N0, D I(x1 < y) = N0, F ( y)(1- F ( y)).
n
4) Ponieważ I(x1 < y) (liczba sukcesów w jednym doświadczeniu) ma rozkład
n
*
Bernoulliego BF ( y) , to nFn (y) =
I(x < y) ma rozkład dwumianowy Bn, .
i F ( y)
i =1
Uwaga 4. Określenia wszystkich używanych tu pojęć (estymator, zgodność, nie-
obciążoność, normalność asymptotyczna) będą podane w rozdziale 2. Natomiast sens
tych pojęć ma być zrozumiały już teraz.
1.6.2. Własności histogramu
Niech rozkład Px jest absolutnie ciągły, f jest gęstością ZL o rozkładzie Px .
Niech liczba przedziałów grupowania k nie zależy od liczności próbki n (o wyborze
k(n) patrz uwagę 1).
Prawdziwe jest następujące twierdzenie.
Twierdzenie 2. Przy n Ą dla dowolnego j =1,k mamy
j
l f = p
P{x1 Aj} = f (x)dx .
j j
n
A
j
Ćwiczenie. Udowodnić twierdzenie 2 korzystając ze wzoru (1.1) oraz z prawa
wielkich liczb.
Twierdzenie 2 orzeka, że pole kolumny histogramu zbudowanego na przedziale
grupowania ze wzrostem liczności próbki zbliża się do pola poniżej krzywej gęstości
na tym samym przedziale.
13
1.6.3. Własności momentów empirycznych
Empiryczna wartość przeciętna x jest nieobciążonym, zgodnym i asymptotycz-
nie normalnym estymatorem WO teoretycznej:
Własność 2.
1) Jeżeli E x1 < Ą , to Ex = Ex1 = a .
2) Jeżeli E x1 < Ą , to x p
Ex1 = a , gdy n Ą .
3) Jeżeli Dx1 < Ą oraz Dx1 ą 0 , to n(x - Ex1) N0, Dx1 .
Dowód.
n
1
1) Ex = nEx1 = Ex1 = a .
Ex = 1
i
n n
i =1
2) Na podstawie prawa wielkich liczb w postaci Chinczyna mamy
n
1
x = Ex1 = a .
x p
i
n
i =1
3) Z centralnego twierdzenia granicznego wynika, że
n
x - nEx1
i
i =1
n(x - Ex1) = N0, Dx1 .
n
Empiryczny moment rzędu k jest nieobciążonym, zgodnym i asymptotycznie
normalnym estymatorem teoretycznego momentu rzędu k.
Własność 3.
1) Jeżeli E x1 k < Ą , to Exk = Ex1k = mk .
2) Jeżeli E x1 k < Ą , to xk p
Ex1k = mk , gdy n Ą .
3) Jeżeli Dx1k < Ą oraz Dx1k ą 0 , to n(xk - Ex1k ) N0, Dx1k .
Ćwiczenie. Udowodnić własność 3.
W ciągu dalszym nie będziemy omawiać istnienia odpowiednich momentów. W
szczególności w pierwszych dwóch punktach następnego stwierdzenia zakładamy
istnienie drugiego momentu ZL xi , a w trzecim punkcie czwartego momentu (czyli
wariancji ZL x12 ).
14
Własność 4.
2
1) Wariancje empiryczne s2 i s0 są estymatorami zgodnymi prawdziwej wa-
2
riancji: s2 p Dx1 = s2 .
Dx1 = s2 , s0 p
2
2) Wielkość s2 jest estymatorem obciążonym, a s0 estymatorem nieobciążo-
n -1 n -1
2
nym wariancji: Es2 = Dx1 = s2 ą s2 , Es0 = Dx1 = s2 .
n n
2
3) Wariancje empiryczne s2 i s0 są estymatorami asymptotycznie normalnymi
prawdziwej wariancji: n(s2 - Dx1) N0, D(x1 -Ex1 )2 .
Dowód.
1) Aatwo dowieść, że
n
1
s2 = = x2 - (x)2 . (1.2)
(x - x)2
i
n
i =1
Istotnie,
n n
1
= -
(x - x)2 1 (x 2 2xxi + (x)2 ) =
i i
n n
i=1 i=1
n n
1
= - = x2 - (x)2.
x 2 2x1 x + (x)2
i i
n n
i=1 i=1
Ze wzoru (1.2) na podstawie prawa wielkich liczb wnioskujemy, że
n
s2 = x2 - (x)2 p 1 i wówczas
Ex12 - (Ex1)2 = s2. Mamy także
n -1
n
2
s0 = s2 ps2 .
n -1
2) Korzystając z formuły (1.2), otrzymujemy
Es2 = E(x2 - (x)2)= Ex2 - E(x)2 = Ex12 - E(x)2 =
n
ć
1
= Ex12 -((Ex)2 + Dx)= Ex12 - (Ex1)2 - D i =
x
n
Ł i =1 ł
1 s2 n -1
= s2 - nDx1 = s2 - = s2 ,
n n
n2
n
2
skąd wynika, że Es0 = Es2 = s2 .
n -1
3) Wariancję empiryczną przedstawmy w postaci
n n
1
s2 = = = - .
(x - x)2 1 (x - a - (x - a))2 (x - a)2 (x - a)2
i i
n n
i =1 i=1
Wówczas
15
n(s2 - s2 ) = n((x - a)2 - (x - a)2 - s2)=
= n((x - a)2 - E(x1 - a)2)- n(x - a)2 =
n
- nE(x1 - a)2
(x - a)2
i
i =1
= - (x - a) n(x - a) N0, D(x1 -a)2 ,
n
ponieważ pierwszy składnik jest słabo zbieżny do N0, D(x1 -a)2 według centralnego
twierdzenia granicznego, a drugi składnik (x - a) n(x - a) jest słabo zbieżny do
zera jako iloczyn zbieżnego do zera ciągu i ciągu słabo zbieżnego do N0, Dx1 .
1.7. Dane grupowane
W tym przypadku gdy liczność próbki jest duża, często mają do czynienia z da-
nymi grupowanymi zamiast elementów próbki. Rozpatrzmy pojęcia podstawowe
związane z danymi grupowanymi. Dla prostoty zakres danych próbki podzielmy na k
przedziałów A1, ..., Ak o tej samej długości D :
A1 = [a0; a1), ..., Ak = [ak-1; ak ) , a - a = D .
j j-1
Niech będzie liczbą elementów próbki które trafiły do przedziału Aj , a wj czę-
j
stością trafienia do przedziału Aj (estymator (oszacowanie) prawdopodobieństwa
trafienia do zgadanego przedziału):
n
j
={liczba xi Aj} = .
I(x Aj ) , wj =
j i
n
i =1
wj
Na każdym z przedziałów Aj budujmy prostokąt o wysokości f = i otrzymuje-
j
D
my histogram.
Rozpatrzmy środki przedziałów: a = a + D 2 jest środkiem przedziału Aj .
j j-1
Zespól
a1, a ..., ak a
1241, 1,24k
4...,3 4..., 3
1 razy k razy
można uważać za pogrubioną próbkę, w której wszystkie xi które trafiły do prze-
działu Aj zostały zastąpione przez a . Korzystając z danych tej nowej próbki można
j
otrzymać takie same jak w przypadku próbki wejściowej tylko że mniej dokładne
charakterystyki empiryczne. Będziemy je oznaczali tak samo. Np. empiryczna war-
tość oczekiwana ma postać
k k
1
x =
a = a wj ,
j j j
n
j =1 j =1
16
a wariancja empiryczna jest postaci
k k
1
s2 = wj .
(a - x)2 = (a - x)2
j j j
n
j=1 j=1
Krzywa łącząca punkty (a0 - D 2, 0), (a1, f1), ..., (ak , fk ), (ak + D 2, 0 ) nazywa
się łamaną częstości. W odróżnieniu od histogramu łamana częstości jest krzywą
ciągłą.
17
Wyszukiwarka
Podobne podstrony:
Tikhonenko O Wykłady ze statystyki matematycznej Wykład 6Tikhonenko O Wykłady ze statystyki matematycznej Wykład 2Tikhonenko O Wykłady ze statystyki matematycznej Wykład 3Tikhonenko O Wykłady ze statystyki matematycznej Wykład 7Tikhonenko O Wykłady ze statystyki matematycznej Wykład 5Boratyńska A Wykłady ze statystyki matematycznejWislicki W Zadania ze statystyki matematycznejwykład statystyka matematyczna cz 4wykład S1 Statystyka matematycznaMikołaj Rybaczuk Materiały do ćwiczeń i wykładów ze statystyki Politechnika BIałostockaWykład ze statystyki dobryWyklady ze statystykiWzory statystyka MatematycznaSTATYSTYKA MATEMATYCZNA w1więcej podobnych podstron