Podstawy statystyki
dr hab. in˙z. Rados law Pytlak
Literatura:
1. A. Plucinska, Plucinski E. - Elementy probabilistyki
- WNT, Warszawa, 2000.
2. J. J´
o˙zwiak, Podg´
orski, J. - Statystyka od podstaw
- PWE, Warszawa, 1997.
3. A. Plucinska, Plucinski E. - Zadania z rachunku
prawdopodobienstwa i statystyki matematycznej
dla studentw politechniki - WNT, 1970.
4. L. Gajek, Ka luszka, M. - Wnioskowanie statysty-
czne, WNT, Warszawa, 1996.
5. J. Gawinecki, Kowalski L. - Elementy statystyki
matematycznej w zadaniach - FBC, Warszawa,
1995.
6. H. Kassyk-Rokicka - Statystyka, zbi´
or zadan -
PWE, Warszawa, 1981.
7. H. Kassyk-Rokicka - Statystyka nie jest trudna.
Cz. 1. Mierniki statystyczne - PWE, Warszawa,
1990.
8. M.
Fisz
-
Rachunek
prawdopodobie´
nstwa
i statystyka matematyczna - PWN, Warszawa,
1958.
1
Zdarzenia losowe
Rachunek prawdopodobienstwa jest dzialem matem-
atyki sluzacym do wykrywania i badania prawidlowosci
w zakresie zdarzen losowych.
Co to jest zdarzenie losowe?
Przypuscmy, ze rzucamy moneta symetryczna.
W
rezultacie rzutu moze pojawic sie albo orzel albo reszka.
Czy potrafimy przewidziec wynik rzutu moneta? Wynik
rzutu zalezy od predkosci poczatkowej z jaka wyrzu-
camy monete, kata pod jakim monete rzucamy i wielu
innych uwarunkowan.
Gdybysmy znali te uwarunkowania oraz model ruchu
monety to moglibysmy przewidziec wynik rzutu mon-
eta.
W innym przypadku o wyniku rzutu moneta
mowimy jako o zjawisku przypadkowym albo zjawisku
(zdarzeniu) losowym.
Przypuscmy, ze wielokrotnie rzucamy moneta oraz
zliczamy ile razy pojawil sie orzel, a ile razy reszka.
Na tej podstawie moglibysmy wnioskowac o wyniku
kolejnego rzutu.
Przypuscmy, ze w n rzutach orzel pojawil sie m razy.
Wowczas prawdopodobienstwo, ze w kolejnym rzucie
pojawi sie orzel mozna oszacowac na m/n, a praw-
dopodobienstwo pojawienia sie reszki na (n − m)/n.
Istota rachunku prawdopodobienstwa sa reguly sza-
cowania mozliwosci wystapienia zjawiska losowego w
oparciu o znane szacunki zjawisk losowych lepiej poz-
nanych (zbadanych).
Rachunek prawdopodobienstaw stosujemy tylko do ta-
kich zdarzen, ktorych czestosc zachodzenia moze w
pewnych warunkach podlegac bezposredniej lub posred-
niej obserwacji lub tez moze byc przedmiotem rozu-
mowan logicznych prowadzacych do ustalenia tej wlasnosci.
Podstawowym pojeciem rachunku prawdopodobienstwa
jest zbior zdarzen elementarnych.
Przypuscmy, ze rzucamy kostka do gry, ktorej boki sa
oznaczone cyframi od 1 do 6. Mozemy analizowac
rozne zdarzenia zwiazane z rzutem kostka, np. po-
jawienie sie liczby parzystej, czy zdarzenie pojawienia
sie liczby nieparzystej.
Oba te zdarzenia losowe mozemy jednak wyrazic, w
pewnym sensie, za pomoca zdarzen prostszych, tzw.
zdarzen elementarnych. W przypadku rozpatrywanego
rzutu kostka za zdarzenia elementarne przyjmujemy
zdarzenia pojawienia sie jednej z liczb od 1 do 6. Zbior
zdarzen elemntarnych, ktory bedziemy oznaczali przez
Ω, jest wiec nastepujacy
Ω = {e
1
, e
2
, e
3
, e
4
, e
5
, e
6
},
gdzie e
i
odpowiada zdarzeniu pojawienia sie liczby i
w rzucie kostka.
Wowczas zdarzenie polegajace na pojawieniu sie liczby
parzeystej odpowiada zbiorowi zdarzen elementarnych
{e
2
, e
4
, e
6
}
i analogicznie dla zdarzenia pojawienia sie liczby nieparzys-
tej
{e
1
, e
3
, e
5
}.
Innym pojeciem pierwotnym jest pojecie zdarzenia losowego,
przez ktore rozumiemy dowolny podzbior zbioru zdarzen
elementarnych - scisla definicja bedzie podana pozniej.
Jezeli zbior zdarzen elementarnych jest zbiorem skonc-
zonym to mozemy okreslic wszystkie podzbiory zbioru
zdarzen elementarnych, czyli wszystkie zdarzenia losowe.
Przypuscmy, ze zbior Ω zawiera n elementow. Wowczas
bedziemy mieli 2
n
podzbiorow tego zbioru, w szczegolnosci:
1 zdarzenie niemozliwe (zbior pusty)
n
1
!
zdarzen jednoelementowych
. . . . . . . . . . . . . . . . . . . . . . . . .
n
n −
1
!
zdarzen o n −
1 elementach
1 zdarzenie pewne (caly zbior Ω).
W przypadku, gdy zbior zdarzen losowych jest przeliczalny
albo mocy continuum za zbior zdarzen losowych bedziemy
przyjmowali cialo borelowskie podzbiorow zbioru Ω,
czyli niekoniecznie wszystkie podzbiory zbioru zdarzen
elementarnych.
Definicja. Zdarzenie zawierajace wszystkie elementy
zbioru Ω jest zdarzeniem pewnym.
Definicja. Zdarzenie nie zawierajace zadnego elementu
zbioru Ω nazywamy zdarzeniem niemozliwym i oz-
naczamy
∅
.
Definicja.
Mowimy, ze zdarzenie A zawiera sie w
zdarzeniu B, jezeli kazde zdarzenie elementarne nalezace
do zbioru A nalezy do zbioru B.
Definicja.
Cialem borelowskim podzbiorow zbior Ω
nazywamy zbior θ, ktory spelnia wlasnosci:
1. Zbior θ zawiera zbior Ω.
2. Zbiot θ zawiera zbior
∅
.
3. Jezeli zdarzenia A
1
, A
2
,... w ilosci skonczonej lub
przeliczalnej naleza do zbior θ to ich alternatywa
(suma) oznaczana
A
1
[
A
2
[
. . .
(wzglednie A
1
+ A
2
+ . . .)
nalezy to θ.
4. Jezeli A
1
∈ θ oraz A
2
∈ θ to ich roznica oz-
naczana
A
1
− A
2
nalezy do θ.
5. Jezeli zdarzenia A
1
, A
2
,...
w ilosci skonczonej
lub przeliczalnej naleza do θ, to koniunkcja tych
zdarzen (iloczyn) oznaczana
A
1
\
A
2
\
. . .
(wzglednie A
1
A
2
. . .
)
nalezy do θ.
Elemnty ciala borelowskiego nazywamy zdarzeniami
losowymi.
Definicja. Ciag zdarzen {A
n
} nazywamy ciagiem zstepu-
jacym, jezeli zachodzi A
n+1
⊂ A
n
dla kazdego n.
Koniunkcja A ciagu zstepujacego zdarzen nazywamy
granice tego ciagu. Oznaczamy ja
A
=
\
n
A
n
(wzglednie A =
Y
n
A
n
)
Definicja.
Ciag zdarzen {A
n
} nazywamy wstepuja-
cym, jezeli spelnione jest A
n
⊂ A
n+1
. Alternatywa
A
ciagu zdarzen wstepujacych nazywamy granice tego
ciagu. Oznaczamy ja
A
=
[
n
A
n
(wzglednie A =
X
n
A
n
).
2
Aksjomaty rachunku prawdopodobi-
enstwa
Rozpatrzmy zbior zdarzen elementarnych Ω oraz cialo
borelowskie podzbiorow Ω - θ. Kazdemu zdarzeniu
losowemu przyporzadkowujemy liczbe, ktora jest odpowied-
nikiem czestosci wystepowania zdarzenia.
1. Kazdemu zdarzeniu losowemu A odpowiada okres-
lona liczba P (A) zwana prawdopodobienstwem
zdarzenia A, spelniajaca nierownosc
0 ≤ P (A) ≤ 1.
2. Prawdopodobienstwo zdarzenia pewnego rowna
sie jednosci:
P
(Ω) = 1.
3. Prawdopodobienstwo alternatywy skonczonej lub
przeliczalnej zdarzen losowych {A
n
} parami sie
wylaczajacych rowna sie sumie prawdopodobienstw
tych zdarzen:
A
i
\
A
j
=
∅
∀ i 6= j =⇒ P (
[
n
A
n
) =
X
n
P
(A
n
).
Rozpatrzmy zdarzenia A i B, ktore nie sa wyklucza-
jace, tzn A
T
B 6
=
∅
. Powstaje pytanie w jaki sposob
obliczyc P (A
S
B
). Mamy
A
[
B
= A
[
(B − A
\
B
)
oraz dwa zdarzenia po prawej stronie sa wykluczajace
sie. Ponadto
B
= A
\
B
[
(B − A
\
B
)
i analogiczna uwaga ma zastosowanie. Z aksjomatu
3) otrzymujemy
P
(A
[
B
) = P (A) + P (B − A
\
B
)
P
(B) = P (A
\
B
) + P (B − A
\
B
)
czyli mamy
P
(A
[
B
) = P (A) + P (B) − P (A
\
B
)
Twierdzenie. Jezeli {A
n
} jest skonczona badz przeliczalna
oraz
S
n
A
n
= Ω to wowczas
P
(
[
n
A
n
) = 1.
Definicja. Zdarzenie ¯
A
= Ω − A nazywamy zdarze-
niem przeciwnym (dopelniajacym) zdarzenia A.
Twierdzenie. Dla dowolnego zdarzenia A mamy
P
( ¯
A
[
A
) = P ( ¯
A
) + P (A).
Twierdzenie. Prawdopodobienstwo zdarzenia niemo-
zliwego rowna sie zero:
P
(
∅
) = 0.
Dowod. Dla zdarzenia A mamy: A
S
Ω = Ω. Jezeli
A
=
∅
to wowczas A
T
Ω =
∅
, czyli mamy
P
(A
[
Ω) = P (A) + P (Ω).
Z tego oraz P (Ω) = 1 wynika, ze P (A) = 0.
Twierdzenie. Jezeli {A
n
} jest ciagiem zstepujacym
oraz A jest koniunkcja zdarzen A
n
, to wowczas
P
(A) = lim
n→∞
P
(A
n
).
Twierdzenie. Jezeli {A
n
} jest ciagiem wstepujacym
oraz A jest alternatywa zdarzen A
n
, to wowczas
P
(A) = lim
n→∞
P
(A
n
).
Przyklad. Dokonujemy trzech rzutow moneta. Jakie
jest prawdpodobienstwo, ze orzel pojawi sie 2 razy
(niezaleznie w jakiej kolejnosci)?
Ogolna liczba sekwencji zwiazanych z trzema rzutami
wynosi 2
n
= 2
3
= 8. Jezeli przez O oznaczymy po-
jawienie sie orla w sekwencji, a przez R pojawienie sie
reszki to wowczas sekwencje sa nastepujace:
OOO, OOR, ORO, ROO, ORR, ROR, RRO, RRR.
Sekwencje te stanowia zbior zdarzen elementarnych i
kazda sekwencja jest zdarzeniem elementarnym. Zak-
ladamy, ze pojawienie sie wybranej sekwencji jest jed-
nakowo prawdopodobne, czyli
P
(e
i
) =
1
2
3
.
Dwukrotne pojawienie sie orla odpowiada wystapie-
niu jednego z trzech zdarzen elementarnych: OOR,
ORO
, ROO. Wynika z tego, ze prawdopodobienstwo
tego zdarzenia losowego wynosi
3
8
.
Gdybysmy zamiast trzech rzutow mieli n rzutow oraz
chcieli okreslic prawdopodobienstwo wystapienia w sek-
wencji m orlow to, przy poprzednich zalozeniach, aby
rozwiazac to zagadnienie mozemy posluzyc sie kom-
binatoryka.
Po pierwsze liczba wszystkich mozliwych sekwencji
wynosi 2
n
. Liczba zdarzen elementarnych, ktore
odpowiadaja wystapieniu w sekwencji m orlow jest
rowna liczbie kombinacji z n elementow po m:
n
m
!
=
n
!
m
!(n − m)!
czyli szukane prawdopodobienstwo wynosi
n
!
2
n
m
!(n − m)!
.
3
Prawdopodobienstwo warunkowe
Rozpatrujemy zdarzenie losowe B, takie ze P (B) > 0.
Wiemy, ze B jest elementem ciala borelowskiego θ
utworzonego ze wszystkich pozbiorow zbior Ω zdarzen
elementarnych.
Rozpatrzmy teraz cialo borelowskie utworzone z
podzbiorow zbioru B. Cialo to oznaczamy przez θ
B
.
Jezeli teraz analizujemy zdarzenie A to mozemy je
traktowac jako element θ, ale rowniez mozemy rozpa-
trzyc A jako element θ
B
.
A
moze nalezec do θ
B
, gdy wszystkie zdarzenia ele-
mentarne tworzace A sa rowniez elementami B. Ale
moze byc tak, ze tylko czesc zdarzen elementarnych z
A
jest w B. W szczegolnym przypadku zdarzenia A i
B
moga byc rozlaczne.
Jezeli koniunkcje A
T
B
rozpatrujemy jako element
ciala θ
B
to oznaczamy to jako A|B i czytamy: A
pod warunkiem B.
Jezeli B ⊂ A to wowczas A|B jest zdarzeniem pewnym
w θ
B
, natomiast, gdy A
T
B
=
∅
to A|B jest zdarze-
niem niemozliwym (w θ
B
).
Czy dla takiego zbioru zdarzen losowych mozemy okres-
lic prawdopodobienstwo, ktore bedziemy oznaczali przez
P
(A|B)?
Przyklad.
Dokonalismy n doswiadczen i w wyniku
tego zaobserwowalismy m wystapien zdarzenia B. Ws-
rod m tych wystapien bylo rowniez k (k ≤ m) wystapien
zdarzenia A. Wynika z tego, ze czestosc koniunkcji
A
T
B
wynosila
k
n
. Zauwazmy, ze w ciele θ - P (B) =
m
n
, natomiast w ciele θ
B
naturalnym wydaje sie przy-
jecie P (A|B) =
k
m
. Czyli mamy
P
(A|B) =
k
m
=
k
n
:
m
n
=
P
(A
T
B
)
P
(B)
.
Definicja. Przypuscmy, ze P (B) > 0. Prawdopodobi-
enstwo warunkowe zdarzenia A pod warunkiem B rowna
sie ilorazowi prawdopodobienstwa koniunkcji A
T
B
przez prawdopodobienstwo zdarzenia B. Czyli
P
(A|B) =
P
(A
T
B
)
P
(B)
.
Analogicznie mozemy okreslic
P
(B|A) =
P
(A
T
B
)
P
(A)
przy zalozeniu, ze P (A) > 0.
Mozemy oczywiscie rowniez zdefiniowac
P
(A
1
|A
2
\
A
3
) =
P
(A
1
T
A
2
T
A
3
)
P
(A
2
T
A
3
)
jezeli rozpatrujemy prawdopodobienstwo warunkowe
okreslone na ciele θ
A
2
T
A
3
. Mamy oczywiscie
P
(A
1
\
A
2
\
A
3
) = P (A
1
\
A
2
)P (A
3
|A
1
\
A
2
)
= P (A
1
)P (A
2
|A
1
)P (A
3
|A
1
\
A
2
).
Czy prawdopodobienstwo warunkowe spelnia aksjo-
maty prawdopodobienstwa? Mamy
P
(A
\
B
) ≤ P (B)
czyli
0 ≤ P (A|B) ≤ 1.
Jezeli A jest zdarzeniem pewnym w B, tzn A
T
B
=
B
, to wowczas
P
(A
\
B
) = P (B) =⇒ P (A|B) = 1
czyli drugi aksjomat jest spelniony.
Niech zdarzenia A
n
|B, w ciele θ
B
, beda zdarzeniami
wzajemnie sie wykluczajacymi. Zgodnie z definicja θ
B
mozemy zapisac
[
n
A
n
|B =
[
n
A
n
!
|B
czyli
P
(
[
n
A
n
|B) = P ((
[
n
A
n
)|B).
Korzystajac z definicji prawdopodobienstwa warunk-
owego otrzymujemy
P
(
[
n
A
n
|B) =
P
((
S
n
A
n
)
T
B
)
P
(B)
=
P
(
S
n
A
n
T
B
)
P
(B)
=
X
n
P
(A
n
T
B
)
P
(B)
=
X
n
P
(A
n
|B)
co dowodzi trzeci aksjomat.
4
Wzor Bayesa
Przyklad. Mamy dwie urny - w pierwszej sa 3 kule
biale i 2 czarne. W drugiej sa 2 kule biale i 3 czarnych.
Wybieramy losowo urne a z niej rowniez w sposob
losowy wybieramy kule. Jakie jest prawdopodobienstwo,
ze wybrana kula jest kula biala, jezeli prawdopodobi-
enstwo wyboru kazdej z urn wynosi 0.5.
Oznaczamy przez A
1
i A
2
zdarzenia polegajace na
wybraniu kuli odpowiednio z pierwszej i drugiej urny.
Przez B oznaczamy zdarzenie polegajace na wyciag-
nieciu kuli bialej. Mamy wiec
B
=
B
\
A
1
[
B
\
A
2
.
Poniewaz zdarzenia B
T
A
1
oraz B
T
A
2
sie wylaczaja
wiec mamy
P
(B) = P (B
\
A
1
) + P (B
\
A
2
).
Korzystajac z definicji prawdopodobienstwa warunk-
owego otrzymujemy
P
(B) = P (A
1
)P (B|A
1
) + P (A
2
)P (B|A
2
).
Poniewaz P (A
1
) = P (A
2
) = 0.5 oraz P (B|A
1
) =
0.6, P (B|A
2
) = 0.4, wiec P (B) = 0.5·0.6+0.5·0.4 =
0.5.
Twierdzenie (o prawdopodobienstwie calkowitym). Jezeli
zdarzenia losowe A
1
, A
2
,...
wylaczaja sie parami i
wyczerpuja zbior zdarzen elementarnych, przy czym
P
(A
n
) > 0 dla kazdego n, to dla dowolnego zdarzenia
losowego B mamy
P
(B) = P (A
1
)P (B|A
1
) + P (A
2
)P (B|A
2
) + ...
Dowod. Na podstawie zalozen mamy
B
=
A
1
\
B
[
A
2
\
B
[
. . .
oraz
P
(B) = P (A
1
\
B
) + P (A
2
\
B
) + . . .
dlatego korzystajac z
P
(A
n
\
B
) = P (A
n
)P (B|A
n
)
dla kazdego n, otrzymujemy teze.
Korzystajac z powyzszego twierdzenia mozemy okres-
lic prawdopodobienstwa warunkowe.
Twierdzenie (Wzor Bayesa). Jezeli A
1
, A
2
,... spelni-
aja zalozenia twierdzenia o prawdopodobienstwie calkow-
itym oraz P (B) > 0, to dla n = 1, 2, . . . zachodzi
wzor
P
(A
n
|B) =
P
(A
n
)P (B|A
n
)
P
(A
1
)P (B|A
1
) + P (A
2
)P (B|A
2
) + . . .
Wzor Bayesa okresla prawdopodobienstwo zdarzenia
A
n
pod warunkiem zajscia (wystapienia) zdarzenia B.
Jest to tzw. wzor na prawdopodobienstwo a posteri-
ori. W przeciwienstwie do tego prawdopodobienstwo
P
(A
n
) jest prawdopodobienstwem a priori.
Przyklad. Przypuscmy, ze dwie armaty strzelaja do
celu. Pierwsza armata wystrzeliwuje pociski w pro-
porcji 0.7 do drugiej armaty.
Wiadomo, ze na 10
pociskow wystrzelonych przez pierwsza armate 8 trafia
do celu. W przypadku drugiej armaty celnosc wynosi
0.7. Okreslic prawdopodobienstwo, ze cel zostal trafiony
przez pierwsza armate.
Mamy: A
1
, A
2
- oddanie strzalu przez pierwsza i
druga armate. Przez B oznaczamy zdarzenie losowe
polegajace na trafieniu celu. Czyli
P
(A
1
) = 0.7P (A
2
), P (B|A
1
) = 0.8, P (B|A
2
) = 0.7.
Ze wzoru Bayesa otrzymujemy
P
(A
2
|B) =
P
(A
2
)P (B|A
2
)
P
(A
1
)P (B|A
1
) + P (A
2
)P (B|A
2
)
=
0.7P (A
2
)
0.7 · 0.8P (A
2
) + 0.7P (A
2
)
= 0.55(5)
5
Zdarzenia niezalezne
Definicja. Zdarzenia A i B sa niezalezne, jezeli spel-
niony jest warunek
P
(A
\
B
) = P (A)P (B).
Ze wzoru na prawdopodobienstwo warunkowe wynika,
ze warunkiem koniecznym i dostatecznym niezaleznosci
zdarzen sa
P
(A|B) = P (A), P (B|A) = P (B)
pod warunkiem, ze P (A) > 0 oraz P (B) > 0.
Defincja. Zdarzenia losowe A
1
, A
2
,...,A
n
sa nieza-
lezne, jezeli dla dowolnych wskaznikow naturalnych
k
1
, k
2
,...,k
s
spelniajacych
1 ≤ k
1
< k
2
. . . < k
s
≤ n
mamy
P
(A
k
1
\
A
k
2
\
. . .
\
A
k
s
) = P (A
k
1
)P (A
k
2
) . . . P (A
k
s
).
Mozna pokazac, ze warunkiem dostatecznym nieza-
leznosci zdarzen w powyzszej defincji nie jest nieza-
leznosc wszystkich par zdarzen.
6
Zmienne losowe
Niech dana bedzie przestrze´
n probabilistyczna (Ω, θ, P ).
Funkcje X okre´
slona na zbiorze zdarze´
n elementarnych
Ω o warto´
sciach rzeczywistych oraz taka, ˙ze dla ka˙zdego
x ∈ R
zbi´
or
{ω ∈ Ω : X(ω) < x}
jest zdarzeniem losowym (czyli nale˙zy do θ) nazywamy
zmienna losowa.
1. Zmienna losowa X jest typu skokowego, je´
sli mo˙ze
przyjmowa´
c sko´
nczona lub niesko´
nczona,
ale
przeliczalna liczbe warto´
sci.
Warto´
sci zmiennej losowej skokowej (punkty
skokowe) oznaczamy przez x
1
, x
2
, ...
natomiast
prawdopodobie´
nstwa z jakimi sa one realizowane
oznaczamy przez p
1
, p
2
, ...
Funkcja prawdopodobie´
nstwa zmiennej losowej X
typu skokowego przyjmujacej warto´
sci x
i
, i
= 1, 2, ...
jest
P
(X = x
i
) = p
i
, i
= 1, 2, ...
Dystrybuanta zmiennej losowej X nazywamy funkcje
F
(x) okre´
slona na zbiorze liczb rzeczywistych:
F
(x) = P (X < x)
F
(x) =
X
x
i
<x
p
i
Dystrybuanta posiada wlasnosci
F
(−∞) = 0, F (+∞) = 1.
2. Zmienna losowa X jest typu ciag lego, je´
sli jej
mo˙zliwe warto´
sci nale˙za do przedzialu ze zbioru
liczb rzeczywistych.
Funkcja gesto´
sci prawdopodobie´
nstwa zmiennej
losowej typu ciag lego nazywamy funkcje f (x),
okre´
slona na zbiorze liczb rzeczywistych o nastepu-
jacych w lasno´
sciach:
f
(x) ≥ 0,
Z
b
a
f
(x)dx = P (a ≤ X ≤ b)
dla dowolnych a < b.
f
(x)
=
lim
∆x→0
P
(x < X ≤ x + ∆x)
∆x
=⇒ P (x < X ≤ x + ∆x)
≈
f
(x)∆x
Dystrybuante zmiennej losowej ciaglej wprowadzamy
w taki sam sposob jak dla zmiennej typu skokowego.
W szczegolnosci mamy
F
(x) =
Z
x
−∞
f
(x)dx.
Definicja. Funkcja P (S) bedaca prawdopodobi-
enstwem tego, ze zmienna losowa X przybiera
wartosci nalezace do S, gdzie S jest dowolnym
zbiorem borelowskim na osi x (rzeczywistej), nosi
nazwe funkcji prawdopodobienstwa. Piszemy
P
(S) = P (X ∈ S).
Twierdzenie. Dystrybuanta F (x) jest funkcja niemale-
jaca.
Dowod. Istotnie, niech x
1
oraz x
2
sa takie, ze
x
1
< x
2
. Poniewaz
(−∞, x
1
) ⊂ (−∞, x
2
)
wiec
P
(X < x
2
) ≥ P (X < x
1
)
czyli F (x
2
) ≥ F (x
1
), gdy x
2
> x
1
.
Twierdzenie. Dystrybuanta F (x) jest funkcja przy-
najmniej lewostronnie ciagla.
Dowod. Przypuscmy, ze {x
n
} jest taki, ze x
n+1
>
x
n
oraz x
n
< x
, lim
n→∞
x
n
= x. Ponadto oz-
naczmy
A
n
= {ω ∈ Ω : X(ω) ∈ [x
n
, x
)}.
Ciag {A
n
} jest ciagiem zstepujacym oraz
lim
n→∞
P
(A
n
) =
lim
n→∞
P
(x
n
≤ X < x)
=
lim
n→∞
[F (x) − F (x
n
)]
= F (x) − lim
n→∞
F
(x
n
) = 0,
czyli
lim
n→∞
F
(x
n
) = F (x).
3. Dwuwymiarowa zmienna losowa (X, Y ) jest typu
skokowego, jesli przyjmuje sko´
nczona lub co
najwy˙zej przeliczalna liczbe warto´
sci (x
i
, y
j
)(i, j =
1, 2, ...) odpowiednio z prawdopodobie´
nstwami p
ij
.
Zachodzi przy tym warunek
X
i
X
j
p
ij
= 1
Funkcja prawdopodobie´
nstwa zmiennej losowej
(X, Y ) typu skokowego jest
p
ij
= P (X = x
i
, Y
= y
j
)
(i, j = 1, 2, ..)
Dystrybuanta F (x, y) dwuwymiarowej zmiennej
losowej (X, Y ) typu skokowego nazywamy funkcje
rzeczywista okre´
slona wzorem
F
(x, y) =
X
x
i
<x
X
y
j
<y
p
ij
x
i
\y
j
y
1
y
2
...
y
l
P
j
p
ij
x
1
p
11
p
12
... p
1l
p
1·
x
2
p
21
p
22
... p
2l
p
2·
.
.
.
.
.
.
.
.
.
.
.
.
x
k
p
k1
p
k2
... p
kl
p
k·
P
i
p
ij
p
·1
p
·2
...
p
·l
1
p
·j
=
k
X
i=1
p
ij
,
j
= 1, ..., l,
p
·j
=
k
X
i=1
P
(X = x
i
, Y
= y
j
) = P (Y = y
j
)
p
i·
=
l
X
j=1
p
ij
,
i
= 1, ..., k,
p
i·
=
l
X
j=1
P
(X = x
i
, Y
= y
j
) = P (X = x
i
)
Zbiory prawdopodobie´
nstw
p
i·
= P (X = x
i
),
i
= 1, ..., k,
p
·j
= P (Y = y
j
),
j
= 1, ..., l
tworza funkcje prawdopodobie´
nstwa rozk lad´
ow
okre´
slanych jako rozk lad brzegowy zmiennej losowej
X
oraz rozk lad brzegowy zmiennej losowej Y.
Rozk lady warunkowe zmiennej losowej (X, Y ).
P
(A | B) =
P
(A ∩ B)
P
(B)
(P (B) > 0)
Prawdopodobie´
nstwa:
P
(X = x
i
| Y = y
j
) =
P
(X = x
i
, Y
= y
j
)
P
(Y = y
j
)
=
p
ij
p
·i
,
i
= 1, ..., k
sa warto´
sciami funkcji prawdopodobie´
nstwa warunk-
owego rozk ladu zmiennej losowej X pod warunk-
iem Y = y
j
,
j
= 1, ..., l.
Analogicznie prawdopodobie´
nstwa
P
(Y
= y
j
| X = x
i
) =
P
(X = x
i
, Y
= y
j
)
P
(X = x
i
)
=
p
ij
p
i·
,
i
= 1, ..., k
sa warto´
sciami funkcji prawdopodobie´
nstwa warunk-
owego rozk ladu zmiennej losowej Y pod warunk-
iem X = x
i
, i
= 1, 2, ..., k
Niech (X, Y ) bedzie dwuwymiarowa zmienna losowa.
Zmienne losowe sa niezale˙zne, je´
sli dla ka˙zdej pary
warto´
sci (x
i
, y
j
) spe lniony jest warunek:
P
(X
=
x
i
, Y
= y
j
) = P (X = x
i
) × P (Y = y
j
)
⇒ p
ij
= p
i·
× p
·j
.
4. Funkcja gesto´
sci dwuwymiarowej zmiennej losowej
(X, Y ) typu ciag lego okreslona jest nastepujaco
f
(x, y) = lim
∆x→0
∆y→0
P (x<X<x+∆x,y<Y <y+∆y)
∆x∆y
(a) f (x, y) ≥ 0
∀x, y ∈ R
(b)
R
+∞
−∞
R
+∞
−∞
f
(x, y)dxdy = 1
(c)
R
x
2
x
1
R
y
2
y
1
f
(x, y)dxdy = P (x
1
< X ≤ x
2
, y
1
<
Y ≤ y
2
)
Rozk lady brzegowe zmiennych ciag lych X, Y charak-
teryzuje sie za pomoca brzegowych funkcji gesto´
sci:
f
1
(x) =
Z
+∞
−∞
f
(x, y)dy,
f
2
(y) =
Z
+∞
−∞
f
(x, y)dx
Dla opisu rozk lad´
ow warunkowych stosuje sie warunk-
owe funkcje gesto´
sci:
f
(x | y) =
f
(x, y)
f
1
(y)
f
(y | x) =
f
(x, y)
f
2
(x)
Zmienne losowe X, Y sa niezale˙zne , je´
sli dla dowol-
nej pary liczb rzeczywistych (x, y) zachodzi
f
(x, y) = f
1
(x)f
2
(y)
7
Parametry rozkladu zmiennej losowej
Parametry okreslamy dla funcki zmiennych losowych
X
- g(X). W szczegolnosci mamy, ze g(X) = X.
Definicja. Niech X bedzie zmienna losowa typy skokowego
o punktach skokowych x
k
i skokach p
k
. Wowczas sz-
ereg
E
(g(X)) =
X
k
p
k
g
(x
k
)
nazywamy wartoscia przecietna (oczekiwana) zmien-
nej losowej g(X), jezeli spelniony jest warunek
X
k
p
k
|g(x
k
)| < +∞.
Definicja. Niech X bedzie zmienna losowa typu cia-
glego o funkcji gestosci f (x). Wowczas
E
(g(X)) =
Z
+∞
−∞
g
(x)f (x)dx
jest wartoscia przecietna (oczekiwana) zmiennej losowej
g
(X) o ile spelniony jest warunek
Z
+∞
−∞
|g(x)|f (x)dx < ∞.
Przyklad. Zmienna losowa X przybiera wartosci k =
0, 1, 2, . . ., przy czym
P
(X = k) =
λ
k
k
!
exp
−λ
,
gdzie λ jest pewna stala dodatnia.
X
ma rozklad
Poissona. Mamy
E
(X) =
∞
X
k=0
k
λ
k
k
!
exp
−λ
= λ exp
−λ
∞
X
k=1
λ
k−1
(k − 1)!
= λ exp
−λ
∞
X
r=0
λ
r
r
!
= λ exp
−λ
exp
λ
= λ.
Przyklad. Zmienna losowa X o rozkladzie normalnym
ma funkcje gestosci prawdopodobienstwa
f
(x) =
1
(2π)
2
exp −x
2
/
2.
Wartosc oczekiwana wynosi
E
(X) =
1
(2π)
1
2
Z
+∞
−∞
x
exp
−x
2
/2
dx
= −
1
(2π)
1
2
Z
+∞
−∞
(−x) exp
−x
2
/2
dx
= −
1
(2π)
1
2
exp
−x
2
/2
+∞
−∞
= 0.
Definicja.
Momentem rzedu k zmiennej losowej X
nazywamy wartosc przecietna funkcji g(X) = X
k
, tzn
m
k
= E(X
k
).
Dla zmiennej losowej typu skokowego mamy wiec
m
k
=
X
k
p
k
x
k
,
natomiast dla zmiennej losowej typu ciaglego mamy
m
k
=
Z
+∞
−∞
x
k
f
(x)dx.
Definicja.
Momentem rzedu k wzgledem punktu c
nazywamy wyrazenie
E
(X − c)
k
.
Jezeli c = m
1
= E(X) to mamy do czynienia z mo-
mentem centralnym rzedu k, ktory oznaczamy
µ
k
= E
(X − E(X))
k
.
Definicja. Moment centralny rzedu 2 zmiennej losowej
X
nazywamy wariancja zmiennej losowej X.
Stosowane oznaczenia:
µ
2
= σ
2
= D
2
(X).
Definicja. Pierwiastek kwadratowy z wariancji nazy-
wamy odchyleniem standardowym, dla ktorego stosu-
jemy oznaczenia σ, D(X).
Parametr σ
2
jest miara rozproszenia zmiennej losowej
dokola jej wartosci przecietnej. Im rozklad jest bardziej
skupiony wokol tej wartosci, tym mniejsza jest wartosc
σ
2
.
Twierdzenie (wlasnosci wariancji). Jezeli D
2
(X) jest
wariancja zmiennej losowej X to zachodzi:
1.
D
2
(X) = m
2
− m
2
1
2. dla kazdego x 6= m
1
mamy
D
2
(X) < E
X − c
)
2
3. jezeli Y = aX + b, to wowczas
D
2
(Y ) = a
2
D
2
(X).
Dowod. Mamy
µ
2
= E
(X − E(X))
2
= E
(X − m
1
)
2
= E(X
2
) − 2m
1
E
(X) + m
2
1
= m
2
− m
2
1
co dowodzi czesc 1).
W czesci 2):
E
((X − c)
2
) = E((X − m
1
+ m
1
− c)
2
)
= E((X − m
1
)
2
+
2(m
1
− c)E(X − m
1
) + (m
1
− c)
2
= D
2
(X) + (m
1
− c)
2
.
Aby udowodnic czesc 3) rozpatrzmy
D
2
(Y ) = E((aX + b)
2
) − (E(aX + b))
2
= a
2
E
(X
2
) − a
2
(E(X))
2
= a
2
((E(X
2
) − (E(X))
2
) = a
2
D
2
(X),
przy czym korzystamy z zaleznosci
E
(c
1
X
1
+ c
2
X
2
) = c
1
E
(X
1
) + c
2
E
(X
2
)
dla dowolnych c
1
, c
2
oraz dowolnych zmiennych losowych
X
1
, X
2
.
Dowod.
E
(cX) =
X
i
cx
i
p
i
= c
X
i
x
i
p
i
= cE(X)
E
(X + Y ) =
X
i
(x
i
+ y
i
) p
i
=
X
i
x
i
p
i
+
X
i
y
i
p
i
= E(X) + E(Y )
Przyklad. Jezeli X ma rozklad normalny, to mamy
E
(X
2
) =
1
(2π)
1
2
Z
+∞
−∞
x
2
exp
−x
2
/2
dx
=
1
(2π)
1
2
Z
+∞
−∞
(−x)(−x exp
−x
2
/2
)dx
=
1
(2π)
1
2
−x exp
−x
2
//2
+∞
−∞
+
1
(2π)
1
2
Z
+∞
−∞
exp
−x
2
/2
dx
= 1.
Czyli D
2
(X) = 1.
8
Wybrane typy rozk lad´
ow.
1. zmienna losowa X ma rozk lad dwumianowy, je´
sli
przyjmuje warto´
sci k = 0, 1, 2, ..., n
z prawdopodobie´
nstwem
P
(X = k) =
n
k
!
p
k
(1 − p)
n−k
E
(X) = np
var
(X) = D
2
(X) = np(1 − p).
2. zmienna losowa X przyjmujaca warto´
sci
k
= 0, 1, 2, ... ma rozk lad Poissona o parametrze
λ,
jesli
P
(X = k) =
λ
k
k
!
e
−λ
,
(λ > 0).
E
(X) = λ,
var
(X) = λ.
3. zmienna losowa X typu ciag lego ma rozk lad nor-
malny je˙zeli jej funkcja gesto´
sci jest postaci
f
(x) =
1
σ
(2π)
1
2
× e
−
(x−m)2
2σ2
(σ > 0)
E
(X) = m,
var
(X) = σ
2
X
: N (m, σ)
4. zmienna losowa X typu ciag lego ma rozk lad χ
2
o k stopniach swobody, je˙zeli jej funkcja gesto´
sci
prawdopodobie´
nstwa
jest
okreslona
wzorem
f
(x) =
1
2
ν
2
Γ
(
ν
2
)
(x)
ν
2
−1
e
−
x
2
,
x >
0
0,
x ≤
0
,
Γ(p) =
Z
∞
0
t
p−1
e
−t
dt
Je˙zeli niezale˙zne zmienne losowe U
i
, i
= 1, ..., k
maja rozk lad N (0, 1) to
k
X
i=1
U
2
i
ma rozk lad χ
2
o k stopniach swobody.
5. zmienna losowa X typu ciag lego ma rozk lad t-
Studenta o ν stopniach swobody, je˙zeli jej funkcja
gesto´
sci jest nastepujaca:
f
(x) =
Γ
ν+1
2
(νπ)
1
2
Γ
ν
2
1 +
x
2
ν
!
−
ν+1
2
(−∞ < x < +∞)
Je˙zeli U ma rozk lad normalny N (0, 1), a V ma
rozk lad χ
2
o k stopniach swobody i je˙zeli zmienne
U, V
sa niezale˙zne , to zmienna
t
=
U
(V /k)
1
2
ma rozk lad t-Studenta o k stopniach swobody.
Pr´
oba losowa prosta jest ciag n zmiennych losowych
(X
1
,X
2
, ..., X
n
) niezale˙znych, majacych jednakowe
rozk lady, takie jak rozk lad zmiennej losowej X w pop-
ulacji.
Statystyka z pr´
oby nazywamy zmienna losowa Z
n
be-
daca funkcja zmiennych X
1
, X
2
, ..., X
n
stanowiacych
pr´
obe losowa.
Przyk lady:
1. X
n
=
1
n
P
n
i=1
X
i
- ´
srednia z pr´
oby losowej. Je˙zeli
jest to pr´
oba losowa prosta oraz
E
(X) = m,
var
(X) = σ
2
,
to w´
owczas
E
X
n
= m,
var
X
n
=
σ
2
n
2. S
2
n
=
1
n
P
n
i=1
(X
i
−m)
2
- wariancja z pr´
oby. Je˙zeli
pr´
oba jest prosta oraz
E
(X) = m,
var
(X) = σ
2
,
w´
owczas
E
S
2
n
=
n −
1
n
σ
2
3. S
2
n
=
1
n−1
P
n−1
i=1
(X
i
− m)
2
- wariancja z pr´
oby.
Je˙zeli pr´
oba jest prosta oraz
E
(X) = m,
var
(X) = σ
2
,
w´
owczas
E
S
2
n
= σ
2
4. χ
2
=
(n−1)S
2
n
σ
2
,
przy czym X
i
maja rozk lad N (m, σ)
oraz
S
2
n
=
1
n −
1
n
X
i=1
(X
i
− X
n
)
2
.
W´
owczas χ
2
ma rozk lad chi-kwadrat (χ
2
) o n − 1
stopniach swobody.
5. t =
X
n
−m
S
n
(n)
1
2
, przy czym X
i
maja rozk lad N (m, σ)
oraz
S
n
=
1
n −
1
n
X
i=1
(X
i
− X
n
)
2
1
2
W´
owczas t ma rok lad t-Studenta (niezale˙zny od
σ
) o n − 1 stopniach swobody.
9
Twierdzenia graniczne
Definicja. Ciag zmiennych losowych {X
n
} jest stochasty-
cznie zbiezny do zera, jezeli dla dowolnego ε > 0 spel-
niona jest zaleznosc
lim
n→∞
P
(|X
n
| > ε) = 0.
Definicja. Mowimy, ze ciag zmiennych losowych {X
n
}
jest zbiezny stochastycznie do liczby c, jezeli ciag zmi-
ennych losowych {X
n
− c} jest zbiezny stochastycznie
do 0.
Twierdzenie. (prawo wielkich liczb Bernoulliego) Oz-
naczmy przez Y
n
zmienna losowa, ktorej funkcja praw-
dopodobienstwa okreslona jest wzorem:
P
Y
n
=
r
n
=
n
r
!
p
r
(1 − p)
n−r
,
przy czym 0 < p < 1 oraz r ∈ {0, 1, 2 . . . , n}. Wowczas
cig zmiennych losowych {X
n
= Y
n
−p} jest stochasty-
cznie zbiezny do zera.
Definicja. Ciag dystrybuant {F
n
(x)} ciagu zmiennych
losowych {X
n
} jest zbiezny, jezeli istnieje taka dys-
trybuanta F (x), ze w kazdym punkcie ciaglosci F (x)
spelniona jest zaleznosc:
lim
n→∞
F
n
(x) = F (x)
Twierdzenie. (prawo wielkich liczb Czebyszewa). Je˙zeli
dla ciagu zmiennych losowych {X
k
}, z kt´
orych ka˙zda
ma sko´
nczona warto´
s´
c oczekiwana E(X
k
) oraz wari-
ancje var(X
k
), jest spe lniony warunek:
lim
k→∞
var
(X
k
) = 0,
to mamy
lim
k→∞
P
(|X
k
− E(X
k
)| < ε) = 1.
Twierdzenie. (centralne twierdzenie graniczne de Moivre’a-
Laplace’a).
Niech {X
k
} bedzie ciagiem zmiennych
losowych o rozk ladzie dwumianowym z parametrami
n
oraz 0 < p < 1 oraz niech {U
k
} bedziem ciagiem
standaryzowanych zmiennych X
k
:
U
k
=
X
k
− np
(np(1 − p))
1
2
.
Wtedy dla ciagu dystrybuant {F
k
(u)} zmiennych losowych
U
k
zachodzi
lim
k→∞
F
k
(u) =
1
(2π)
1
2
Z
u
−∞
e
−
z2
2
dz
dla ka˙zdego z.
Twierdzenie.
(centralne
twierdzenie
graniczne
Lindeberga-Levy’ego). Je˙zeli {X
k
} jest ciagiem niezale˙znych
zmiennych losowych o identycznych rozk ladach i sko´
nczonej
wariancji, to ciag dystrybuant {F
k
(t)} zmiennych losowych
T
k
=
Z
k
− E(X)(= E(X
k
))
D
(X)(= D(X
k
))/ (k)
1
2
,
gdzie
Z
k
=
1
k
k
X
i=1
X
i
,
spe lnia
lim
k→∞
F
k
(u) =
1
(2π)
1
2
Z
u
−∞
e
−
z2
2
dz
10
Estymatory
Definicja. Estymatorem T
n
parametru θ (estymator
punktowy) rozk ladu populacji generalnej nazywamy
statystyke z proby T
n
= t(X
1
, X
2
, ..., X
n
), kt´
ora s lu˙zy
do oszacowania warto´
sci tego parametru.
M´
owimy, ˙ze estymator T
n
jest nieobcia˙zony, je˙zeli
spe lniona jest relacja E(T
n
) = θ.
M´
owimy, ˙ze estymator T
n
jest zgodny, je´
sli spe lnia
relacje
lim
n→∞
P
(|T
n
− θ| < ε) = 1
dla dowolnego ε > 0.
Je˙zeli dany jest zbi´
or wszystkich nieobciazonych esty-
mator´
ow T
1
n
, T
2
n
, ..., T
r
n
parametru θ to estymator T
k
n
,
kt´
ory ma w tym zbiorze najmniejsza wariancje, tzn.
var
(T
k
n
) ≤ var(T
i
n
),
i
= 1, ..., r,
nazywamy
najefektywniejszym
estymatorem
parametru θ.
Definicja. Przedzia lem ufnosci dla parametru θ ∈ Θ,
na poziomie ufnosci 1 − α ( 0<α < 1), nazywamy
przedzia l (θ
1
, θ
2
) spe lniajacy warunki:
1. θ
1
= θ
1
(X
1
, ..., X
n
) oraz θ
2
= θ
2
(X
1
, ..., X
n
) sa
funkcjami proby losowej X
1
, ..., X
n
nie zale˙za jed-
nak od θ,
2. dla ka˙zdego θ ∈ Θ
P
(θ
1
(X
1
, ..., X
n
) < θ < θ
2
(X
1
, ..., X
n
)) = 1−α.
Przyk lady.
1. przedzia l ufno´
sci dla wartosci parametru m popu-
lacji
generalnej
o
rozk ladzie
N
(m, σ).
Statystyka
t
=
X
n
− m
S
n
(n)
1
2
,
gdzie
S
n
=
1
n −
1
n
X
i=1
(X
i
− X
n
)
2
1
2
ma rozk lad t-Studenta o n−1 stopniach swobody.
Je˙zeli t
α,n−1
jest taka warto´
scia, ˙ze
P
(|t| ≥ t
α,n−1
) = α,
to w´
owczas
x
n
− t
α,n−1
s
n
(n)
1
2
, x
n
+ t
α,n−1
s
n
(n)
1
2
jest przedzia lem ufno´
sci dla m
P
x
n
− t
α,n−1
s
n
(n)
1
2
< m
< x
n
+ t
α,n−1
s
n
(n)
1
2
= 1 − α
2. przedzia l ufnosci dla parametru σ
2
cechy X o rozk ladzie
N
(m, σ). Statystyka χ
2
=
(n−1)S
2
n
σ
2
ma rozk lad χ
2
o n − 1 stopniach swobody. Je˙zeli
χ
2
α
2
,n−1
,
χ
2
1−
α
2
,n−1
sa okreslone nastepujaco
P
(χ
2
≥ χ
2
α
2
,n−1
) =
α
2
P
(χ
2
≥ χ
2
1−
α
2
,n−1
) = 1 −
α
2
to w´
owczas
(n − 1)s
2
χ
2
1−
α
2
,n−1
,
(n − 1)s
2
χ
2
α
2
,n−1
jest przedzia lem ufnosci dla σ
2
P
(n − 1)s
2
χ
2
1−
α
2
,n−1
< σ
2
<
(n − 1)s
2
χ
2
α
2
,n−1
= 1 − α
11
Testowanie hipotez statystycznych
Przez hipoteze statystyczna rozumie sie dowolne przy-
puszczenie co do rozk ladu populacji generalnej (jego
postaci
funkcyjnej
lub
wartosci
parametr´
ow). Prawdziwo´
s´
c tego przypuszczenia jest
oceniana na podstawie wynik´
ow pr´
oby losowej.
Testem statystycznym nazywamy regu le postepowa-
nia, kt´
ora ka˙zdej mo˙zliwej pr´
obie przyporzadkowuje
decyzje przyjecia lub odrzucenia hipotezy. Oznacza
to, ˙ze test statystyczny jest regu la rozstrzygajaca, jakie
wyniki
pr´
oby
pozwalaja
uzna´
c
sprawdzana hipoteze za prawdziwa, jakie natomiast
- za fa lszywa.
Testy istotno´
sci to taki rodzaj test´
ow, w kt´
orych na
podstawie wynik´
ow pr´
oby losowej podejmuje sie je-
dynie
decyzje
odrzucenia
hipotezy
sprawdzanej lub stwierdza sie, ˙ze brak jest podstaw do
jej odrzucenia. Nie podejmuje sie natomiast w te´
scie
istotno´
sci decyzji o przyjeciu sprawdzanej hipotezy.
Na podstawie hipotezy zerowej buduje sie statystyke Z
z wynik´
ow n-elementowej pr´
oby i wyznacza sie rozk lad
tej statystyki przy za lo˙zeniu prawdziwo´
sci hipotezy H
0
.
W rozk ladzie tym wybiera sie taki obszar Q wartosci
statystyki Z, aby spe lniona by la r´
owno´
s´
c
P
(Z ∈ Q) = α,
gdzie
α
jest
ustalonym
z
g´
ory
prawdopodobie´
nstwem. Q jest obszarem krytycznym
testu.
Ilekro´
c warto´
s´
c statystyki Z z pr´
oby znajdzie sie w
nim, to podejmuje sie decyzje odrzucenia hipotezy H
0
na korzy´
s´
c jej alternatywy H
1
.
Je˙zeli warto´
s´
c statystyki Z z pr´
oby nie nale˙zy do ob-
szaru krytycznego Q to nie ma podstaw do odrzucenia
hipotezy H
0
.
Przyk lad - test istotno´
sci dla warto´
sci ´
sredniej popu-
lacji generalnej.
Hipoteza zerowa jest przypuszczeniem, ˙ze ´
srednia warto´
s´
c
m
ma warto´
s´
c m
0
-
H
0
: m = m
0
wobec hipotezy alternatywnej -
H
1
: m 6= m
0
.
Populacja generalna ma rozk lad N (m, σ) o nieznanych
obu parametrach.
Statystyka t =
X
n
−m
S
n
(n)
1
2
, przy czym
S
n
=
1
n −
1
n
X
i=1
(X
i
− X
n
)
2
1
2
ma rozk lad t-Studenta o n − 1 punktach swobody.
Okre´
slamy t
α,n−1
takie, ˙ze
P
(|t| ≥ t
α,n−1
) = α
(α = 0.01(0.05)). Gdy warto´
s´
c statystyki z pr´
oby
losowej t jest taka, ˙ze
|t| ≤ t
α,n−1
to nie ma podstaw do odrzucenia hipotezy H
0
.
Je˙zeli
|t| ≥ t
α,n−1
to w´
owczas odrzucamy hipoteze zerowa na rzecz H
1
12
Badanie zale˙zno´
sci miedzy cechami
1. Statystyka χ
2
Pearsona.
Niech F (x) bedzie dana dystrybuanta populacji
generalnej. Dzielimy o´
s x na r roz lacznych zbior´
ow
S
k
i
niech
π
k
(k
=
1, ..., r)
bedzie
prawdopodobie´
nstwem, ˙ze zmienna losowa X przy-
biera warto´
s´
c nale˙zaca do S
k
.
Je˙zeli za S
k
przyjmiemy
przedzia l [a
k
, a
k+1
), to
π
k
= F (a
k+1
) − F (a
k
).
Liczbe π
k
nazywamy czesto´
scia teoretyczna.
Przypu´
s´
cmy, ˙ze mamy n niezale˙znych obserwacji
zmiennej losowej X : x
1
, x
2
, ..., x
n
.
Obserwacje
te dzielimy na r grup zaliczajac do k-tej grupy te
warto´
sci , kt´
ore nale˙za do zbioru S
k
.
Oznaczmy
przez n
k
ilo´
s´
c obserwacji nale˙zacych do S
k
.
Oczywi´
scie n
k
sa zmiennymi losowymi.
Statystyke
χ
2
=
r
X
i=1
(n
k
− nπ
k
)
2
nπ
k
nazywamy statystyka χ
2
Pearsona.
Twierdzenie. Niech czesto´
sci teoretyczne π
k
beda
dane. W´
owczas {F
n
(z)} statystyki χ
2
okre´
slonej
powy˙zej jest zbie˙zny (n → ∞) do dystrybuanty
rozk ladu χ
2
o r − 1 stopniach swobody.
2. Przypu´
s´
cmy, ˙ze elementy pewnej pr´
oby zosta ly
sklasyfikowane wed lug dw´
och cech X i Y , przy
czym zakres mo˙zliwych warto´
sci tych cech rozbito
odpowiednio na r i s grup. Oznaczamy przez n
ogolna ilo´
s´
c element´
ow proby, przez n
ik
- liczbe
element´
ow proby nale˙zacych do i-tej grupy wed lug
cechy X (i = 1, 2, ..., r) i do k-tej grupy wed lug
cechy Y (k=1,2,...,s). Ponadto
n
i·
=
s
X
k=1
n
ik
n
·k
=
r
X
i=1
n
ik
Oczywi´
scie
s
X
k=1
r
X
i=1
n
ik
= n
Tworzymy tzw. tablice wielodzielcza
i\k
1
2
...
s
og´
o lem n
i·
1
n
11
n
12
...
n
1s
n
1·
2
n
21
n
22
...
n
2s
n
2·
.
.
.
.
.
.
r
n
r1
n
r2
...
n
rs
n
r·
og´
o lem n
·k
n
·1
n
·2
...
n
·s
n
Wysuwamy hipoteze H
0
, ˙ze w populacji gener-
alnej, z kt´
orej wybrano rozwa˙zana probe, cechy
X
i Y sa niezale˙zne. Je˙zeli oznaczymy przez p
ik
prawdopodobie´
nstwo, ˙ze element wybrany przy-
padkowo z populacji generalnej bedzie nale˙za l do
i
-tej grupy wed lug cechy X oraz do k-tej grupy
wed lug cechy Y , a przez p
i·
i p
k·
oznaczymy
odpowiednie prawdopodobie´
nstwa brzegowe, to w
my´
sl hipotezy H
0
dla ka˙zdej pary (i, k) bedzie
p
ik
= p
i·
p
·k
Oczywiscie
s
X
k=1
p
·k
= 1,
r
X
i=1
p
i·
= 1
Hipoteza H
0
nie precyzuje r+s parametr´
ow p
i·
, p
·k
.
Z powy˙zszej zale˙zno´
sci mo˙zemy okre´
sli´
c dwa z
nich. Pozosta le estymujemy metoda najwiekszej
wiarogodno´
sci.
Otrzymamy:
p
i·
=
n
i·
n
,
p
·k
=
n
·k
n
Korzystajac z definicji rozk ladu χ
2
Pearsona otrzy-
mamy
χ
2
= n
r
X
i=1
s
X
k=1
(n
ik
− n
i·
n
·k
/n
)
2
n
i·
n
·k
Poniewa˙z z pr´
oby wyznaczyli´
smy r+s−2 parame-
try, przeto powy˙zsza zmienna χ
2
ma
rs −
(r + s − 2) − 1 = (r − 1) × (s − 1)
stopni swobody. Mo˙zemy zastosowa´
c test χ
2
do
zweryfikowania hipotezy H
0
.
3. Przyk lad. Wysuwamy hipoteze H
0
,
˙ze u me˙zczyzn
kolor oczu X
i kolor w los´
ow Y sa cechami
niezale˙znymi. Zweryfikujemy te hipoteze opier-
ajac sie na danych o kolorze oczu i w los´
ow 6800
me˙zczyzn, zamieszczonych w tabeli, kt´
ora cytu-
jemy za M.G. Kendallem. Pr´
obe rozk ladamy na
3 grupy wed lug koloru oczu i na 4 grupy wed lug
kolor´
ow w los´
ow.
i \k
1
j.s.
2
c.b.
3
c.
4
r.
n
i·
o.
1
n.
1768
807
189
47
2811
2
s.z.
946
1387
746
53
3132
3
p.
115
438
288
16
857
n
·k
o.
2829
2632
1223 116 6800
j.s. - jasne blond, c.b. - ciemne blond, c. - czarne,
r. - rude
n. - niebieskie, s.z. - szare lub zielone, p. - piwne
Z tablicy obliczamy
χ
2
= 6800
3
X
i=1
4
X
k=1
(n
ik
− n
i·
n
·k
/
6800)
2
n
i·
n
·k
= 1075.2
Ilo´
s´
c stopni swobody wynosi (r − 1)(s − 1) = 6. Z
tablic rozk ladu χ
2
okre´
slamy, ˙ze przy 6 stopniach
swobody
P
(χ
2
≥ 1075.2) < 0.000001.
Odrzucamy hipoteze H
0
.
13
Testy zgodno´
sci
1. Statystyka χ
2
Pearsona.
Niech F (x) bedzie dana dystrybuanta populacji
generalnej. Dzielimy o´
s x na r roz lacznych zbior´
ow
S
k
i
niech
π
k
(k
=
1, ..., r)
bedzie
prawdopodobie´
nstwem, ˙ze zmienna losowa X przy-
biera warto´
s´
c nale˙zaca do S
k
.
Je˙zeli za S
k
przyjmiemy
przedzia l [a
k
, a
k+1
), to
π
k
= F (a
k+1
) − F (a
k
).
Liczbe π
k
nazywamy czesto´
scia teoretyczna.
Przypu´
s´
cmy, ˙ze mamy n niezale˙znych obserwacji
zmiennej losowej X : x
1
, x
2
, ..., x
n
.
Obserwacje
te dzielimy na r grup zaliczajac do k-tej grupy
te warto´
sci, kt´
ore nale˙za do zbioru S
k
.
Oznaczmy
przez n
k
ilo´
s´
c obserwacji nale˙zacych do S
k
.
Oczywi´
scie n
k
sa zmiennymi losowymi.
Statystyke
χ
2
=
r
X
i=1
(n
k
− nπ
k
)
2
nπ
k
nazywamy statystyka χ
2
Pearsona.
Twierdzenie. Niech czesto´
sci teoretyczne π
k
beda
dane. W´
owczas {F
n
(z)} statystyki χ
2
okre´
slonej
powy˙zej jest zbie˙zny (n → ∞) do dystrybuanty
rozk ladu χ
2
o r − 1 stopniach swobody.
Je˙zeli nie znamy pewnych parametr´
ow rozk ladu:
λ
1
, ..., λ
k
to w´
owczas parametry te mo˙zemy wyesty-
mowa´
c metoda najwiekszej wiarogodno´
sci.
Twierdzenie. Je˙zeli nieznane k warto´
sci λ
1
, ..., λ
k
wyznacza sie z pr´
oby metoda najwiekszej wiaro-
godno´
sci, to rozk lad statystyki χ
2
(okre´
slonej powy˙zej)
zmierza do rozk ladu χ
2
o r − k − 1 stopniach swo-
body.
2. Przyk lad. Z partii towaru wybieramy pr´
obe prosta
zawierajaca n = 100 element´
ow, w´
sr´
od kt´
orych
znaleziono n
1
= 22 sztuk wadliwych. Na pod-
stawie tej pr´
oby chcemy zweryfikowa´
c, na poziomie
istotno´
sci α = 0.01, hipoteze H
0
, ˙ze w trakcie
wybierania pr´
oby parwdopodobie´
nstwo wyboru wadli-
wej sztuki wynosi lo stale p = 0.20. Inaczej m´
owiac
w my´
sl tej hipotezy n
1
= 22 jest zaobserwowana
warto´
scia zmiennej losowej o rozk ladzie dwumi-
anowym przy p = 0.20 oraz n = 100.
Stosujemy test χ
2
.
Hipoteza H
0
okre´
sla tu ca lkowicie
rozk lad. Rozk ladamy ca la mase obserwacji na n
1
sztuk wadliwych i n
2
= n − n
1
sztuk dobrych.
Czesto´
sciami teoretycznymi tych grup beda odpowied-
nio p = 0.2 oraz q = 1 − p = 0.8. Otrzymujemy
χ
2
=
(n
1
− np)
2
np
+
(n
2
− nq)
2
nq
=
2
2
20
+
2
2
80
=
1
4
Mamy tu dwie grupy, tj.
r
= 2; rozpatrujemy
rozk lad χ
2
o jednym stopniu swobody. Z tablic
χ
2
odczytujemy, ˙ze P
χ
2
≥ 6.6
= 0.01, a wiec
prawdopodobie´
nstwo, ˙ze warto´
s´
c χ
2
bedzie niem-
niejsza od
1
4
, jest znacznie wieksze od 0.01; nie
ma wiec podstaw do odrzucenia hipotezy H
0
.
3. Empiryczny rozk lad cechy.
Za l´
o˙zmy, ˙ze cecha przyjmuje k wartosci x
i
,
i=1,...,k.
Przyjmujemy, ˙ze warto´
sci te sa uprzadkowane tak,
aby
x
min
= x
1
< x
2
< ... < x
k
= x
max
Liczbe jednostek zbiorowo´
sci, dla kt´
orych cecha
przyjmuje warto´
s´
c x
i
, oznaczamy symbolem n
i
.
Oczywi´
scie mamy
k
X
i=1
n
i
= n
Je˙zeli poszczeg´
olnym warto´
sciom x
i
cechy przy-
porzadkowane sa liczebnosci n
i
to w ten spos´
ob
okre´
slony jest rozk lad empiryczny.
Zamiast liczebnosci n
i
stosuje sie r´
ownie˙z czesto´
sci
okre´
slone nastepujaco
w
i
= n
i
/n, i
= 1, ..., k
k
X
i=1
w
i
= 1
Je˙zeli cecha przyjmuje du˙zo warto´
sci, traktuje sie
ja jako ciag la niezale˙znie od tego, czy z definicji
jest ciag la, czy skokowa.
W przypadku cechy
ciag lej okre´
slanie rozk ladu odbywa sie przez przy-
porzadkowanie liczebnosci (czestosci) odpowied-
nim przedzia lom warto´
sci cechy, a nie konkret-
nym jej warto´
sciom. Takie przedzia ly nazywamy
przedzia lami klasowymi.
Dystrybuanta empiryczna F
n
(x) nazywamy funkcje
okre´
slona na podstawie danych (x
i
, w
i
),i = 1, ..., k :
F
n
(x) =
0 dla x < x
1
P
i
s=1
w
s
dla x
i
≤ x < x
i+1
,
i
= 1, 2, ..., k − 1
1 dla x ≥ x
k
4. Twierdzenie (Gliwienki). Niech F
n
(x) bedzie dys-
trybuanta empiryczna w n - elementowej pr´
obie
prostej wylosowanej z populacji, w kt´
orej zmienna
X
ma dystrybuante F (x) . Prawdopodobie´
nstwo,
˙ze ciag {F
n
(x)} jest jednostajnie zbie˙zny wzgle-
dem x (−∞ < x < ∞) do dystrybuanty teorety-
cznej F (x), r´
owna sie jednosci.
Twierdzenie Gliwienki mozna zapisa´
c w nastepu-
jacej postaci. Oznczamy
D
n
=
sup
−∞<x<∞
|F
n
(x) − F (x)|
Teza twierdzenia orzeka, ˙ze zachodzi r´
owno´
s´
c
P
lim
n→∞
D
n
= 0
= 1
Oznaczamy przez Q
n
(λ) dystrybuante zmiennej
losowej D
n
(n)
1
2
:
Q
n
(λ) =
P
D
n
(n)
1
2
< λ
= P
D
n
< λ/
(n)
1
2
,
gdy λ > 0,
0, gdy λ ≤ 0
Twierdzenie (Ko lmogorowa). Niech F
n
(x) bedzie
dystrybuanta empiryczna w n - elementowej pr´
obie
prostej wylosowanej z populacji, w kt´
orej zmienna
X
ma ciag la dystrybuante F (x) . W´
owczas za-
chodzi relacja
lim
n→∞
Q
n
(λ) =
Q
(λ) =
(
P
∞
k=−∞
(−1)
k
exp
−2k
2
λ
2
,
gdy λ > 0
0, gdy λ ≤ 0
Test λ - Ko lmogorowa zbudowany jest w nastepu-
jacy spos´
ob. Hipoteza zerowa jest przypuszcze-
nie, ˙ze populacja ma ciag ly rozk lad okreslony dys-
trybuanta F
0
(x) :
H
0
: F (x) = F
0
(x) wobec H
1
: F (x) 6= F
0
(x)
Losujemy n - elementowa du˙za pr´
obe, a nastep-
nie okre´
slamy rozk lad empiryczny F
n
(x) . Miara
zgodnosci tych dw´
och dystrybuant jest statystyka
D
n
(x) oraz okre´
slony na jej podstawie rozk lad
graniczny Q (λ) . Je˙zeli prawdziwa jest hipoteza
zerowa to w´
owczas statystyka ta nie powinna przy-
biera´
c duzych warto´
sci. Obszar krytyczny okre´
slony
jest zale˙zno´
scia:
P
(λ ≥ λ
α
) = α,
gdzie α jest poziomem istotnosci.
5. Przyk lad (J´
o˙zwiak, Podg´
orski - Statystyka od pod-
staw).
Jednostkowe koszty produkcji pewnego
wyrobu maja rozk lad normalny. W celu sprawdzenia
tego
przypuszczenia
dokonano
pr´
oby
prostej
o liczebnosci n = 200 :
i
Koszty jednostkowe
Liczba zak lad´
ow
1
2.50-3.50
5
2
3.50-4.50
10
3
4.50-5.50
35
4
5.50-6.50
80
5
6.50-7.50
50
6
7.50-8.50
10
7
8.50-9.50
10
P
200
Na podstawie pr´
oby okreslono warto´
sci estyma-
tor´
ow: m, σ rozk ladu normalnego - x = 6.15, s =
1.216
Oblczenie statystyki D
n
podane jest w tabeli:
i
x
u
Φ (u)
w
i
F
n
(x)
D
n
1
3.50
-2.18
0.015
0.025
0.025
0.010
2
4.50
-1.36
0.087
0.050
0.075
0.012
3
5.50
-0.54
0.295
0.175
0.250
max
0.045
4
6.50
-0.29
0.614
0.400
0.650
0.036
5
7.50
1.11
0.867
0.250
0.900
0.033
6
8.50
1.93
0.973
0.050
0.950
0.023
7
9.50
2.76
0.997
0.050
1.00
0.003
Warto´
s´
c statystyki λ - Ko lmogorowa wynosi: λ =
0.045 (200)
1
2
= 0.637. Dla α = 0.05 otrzymujemy
λ
α
= 1.36. Poniewa˙z λ < λ
α
nie ma podstaw do
odrzucenia hipotezy.
6. Momentem centralnym rzedu k + l(k, l = 0, 1, ...)
dwuwymiarowego rozk ladu zmiennej losowej (X, Y )
nazywamy wyra˙zenie
µ
kl
=E
h
(X − E(X))
k
(Y − E(Y ))
l
i
=
P
i
P
j
(x
i
− E(X))
k
(y
l
− E(Y ))
l
p
ij
dla zmiennej losowej skokowej
R
+∞
−∞
R
+∞
−∞
(x − E(X))
k
(y − E(Y ))
l
f
(x, y)dxdy
dla zmiennej losowej ciag lej
7. Je˙zeli k = 1, l = 1 to w´
owczas µ
11
= cov(X, Y )
jest kowariancja.
µ
11
= E [(X − E(X))(Y − E(Y ))]
= E(XY ) − E(X)E(Y ) −
E
(Y )E(X) + E(X)E(Y )
= E(XY ) − E(X)E(Y )
8. Zmienne losowe dla kt´
orych
cov
(X, Y ) = 0
nazywamy nieskorelowanymi.
Je˙zeli zmienne losowe X, Y sa niezale˙zne, to w´
owczas
E
(XY ) = E(X)E(Y ).
Dow´
od (dla zmiennych skokowych).
E
(XY ) =
X
i
X
j
x
i
y
j
p
ij
=
X
i
X
j
x
i·
p
i·
y
j
p
·j
=
X
i
x
i
p
i·
X
j
y
j
p
·j
= E(X)E(Y )
9. Zmienne losowe X, Y , kt´
oe sa niezale˙zne sa r´
ownie˙z
nieskorelowane.
Twierdzenie odwrotne nie jest
prawdziwe.
10. Dla kowariancji zmiennych X, Y zachodzi r´
owno´
s´
c:
−D(X)D(Y ) ≤ cov(X, Y ) ≤ D(X)D(Y )
Dla zmiennych losowych X, Y zachodzi:
D
2
(X + Y ) = D
2
(X) + D
2
(Y ) + 2cov(X, Y )
Dow´
od. Oznaczmy Z = X + Y. Otrzymamy
D
2
(Z) = E(Z
2
) − [E(Z)]
2
= E
h
(X + Y )
2
i
−
[E(X + Y )]
2
= E
X
2
+ 2E(XY ) + [E(X)]
2
− E
Y
2
−
2E(XY ) − [E(Y )]
2
=
E
X
2
− [E(X)]
2
+ E
Y
2
− [E(Y )]
2
+
2 [E(XY ) − E(X)E(Y )] =
var
(X) + var(Y ) + 2cov(X, Y )
11. Je˙zeli X, Y sa nieskorelowane, to w´
owczas
var
(X + Y ) = var(X) + var(Y )
12. Wielko´
s´
c ρ okre´
slona jako
ρ
=
cov
(X, Y )
D
(X)D(Y )
jest wsp´
o lczynnikiem korelacji zmiennych X, Y..
Zawsze
−1 ≤ ρ ≤ 1
13. Twierdzenie. Warunkiem koniecznym i dostate-
cznym na to aby
ρ
2
= 1
jest
P
(Y = aX + b) = 1,
tzn. aby zmienne X, Y by ly zwiazane zale˙zno´
scia
liniowa z prawdopodobie´
nstwem r´
ownym jedno´
sci.
14. Wsp´
o lczynnik korelacji rozk lad´
ow empirycznych.
(a) Rozk lady brzegowe empiryczne:
x
=
1
n
r
X
i=1
x
i
n
i·
s
2
x
=
1
n −
1
r
X
i=1
(x
i
− x)
2
n
i·
=
1
n −
1
r
X
i=1
x
2
i
n
i·
− nx
2
y
=
1
n
s
X
k=1
y
k
n
·k
s
2
y
=
1
n −
1
s
X
k=1
(y
k
− y)
2
n
·k
=
1
n −
1
s
X
k=1
y
2
k
n
·k
− ny
2
(b) kowariancja
dwuwymiarowego
rozk ladu
empirycznego
c
xy
=
1
n −
1
r
X
i=1
s
X
k=1
(x
i
− x) (y
k
− y) n
ik
c
xy
=
1
n −
1
r
X
i=1
s
X
k=1
x
i
y
k
n
ik
− xy
(c) wsp´
o lczynnik korelacji
r
=
c
xy
s
x
s
y
wsp´
o lczynnik r przyjmuje warto´
sci z przedzia lu
[−1, 1]
wsp´
o lczynnik r jest r´
owny zeru, gdy cechy sa
nieskorelowane
modu l wsp´
o lczynnika r jest r´
owny jedno´
sci wt-
edy i tylko wtedy, gdy miedzy cechami za-
chodzi funkcyjny zwiazek liniowy
15. Przypu´
s´
cmy, ˙ze dwuwymiarowy rozk lad zmiennych
losowych X, Y jest normalny. Stawiamy hipoteze,
˙ze zmienne nie sa skorelowane:
H
0
: ρ = 0
wobec hipotezy alternatywnej
H
1
: ρ 6= 0
Je˙zeli hipoteza H
0
jest prawdziwa, to statystyka
t
=
r
1 − r
2
1
2
(n − 2)
1
2
ma rozk lad t-Studenta o n−2 stopniach swobody.
Obszar krytyczny okre´
slony jest nastepujaco
P
(|t| ≥ t
α,n−2
) = α
gdzie α jest poziomem istotno´
sci, a t
α,n−2
jest
warto´
scia krytyczna.
16. Przyk lad. Stawiamy hipoteze, ˙ze spo˙zycie ziem-
niak´
ow jest tym mniejsze, im wy˙zsze sa dochody
konsument´
ow.
Wylosowano 10 gospodarstw
domowych, dla kt´
orych okre´
slono roczny doch´
od
na osobe w 1982 r.
(zmienna X) oraz roczne
spo˙zycie ziemniak´
ow na osobe w tym˙ze roku (zmi-
enna Y ):
x
i
(ty´
s.P LN
) y
k
(kg)
78
200
35
280
96
130
52
230
110
150
80
150
98
120
96
120
40
240
85
150
H
0
: ρ = 0
wobec hipotezy alternatywnej
H
1
: ρ < 0
Obliczono r = −0.93 oraz warto´
s´
c statystyki
t
=
−0.93
(1 − 0.8649)
1
2
(8)
1
2
= −7.156
Obszar krytyczny:
P
(t ≤ −t
α,n−2
) = α
Dla α = 0.01 odczytujemy t
α,8
= 2.896. Czyli
warto´
s´
c statystyki jest w obszarze krytycznym.
Odrzucamy hipoteze H
0
na rzecz hipotezy alter-
natywnej H
1
.
17. Odrzcenie hipotezy H
0
wprowadzonej w punkcie
2 oznacza, ˙ze istnieje zwiazek miedzy badanymi
cechami. Do pomiaru si ly zwiazku mozna wyko-
rzysta´
c statystyke χ
2
,
bedaca miara rozbie˙zno´
sci
obu rozk lad´
ow.
Mo˙zna pokaza´
c, ˙ze statystyka
ta przyjmuje warto´
sci z przedzia lu (0, n(m − 1)),
gdzie m = min(r, s). Statystyka χ
2
jest r´
owna
zeru, gdy wszystkie liczebno´
sci teoretyczne i za-
obserwowane sa identyczne. Maksymalna warto´
s´
c
r´
owna n(m − 1) statystyka ta przyjmuje w przy-
padku zale˙zno´
sci funkcyjnej.
Stosujemy nastepujacy wsp´
o lczynnik zbie˙zno´
sci V
Cramera
V
=
χ
2
n
(m − 1)
!
1
2
∈ [0, 1]
Dla przyk ladu z p. 3 mamy
V
=
1075.2
6800 × 2
1
2
≈
0.28
18. Badanie zale˙zno´
sci miedzy cechami niemierzal-
nymi zaproponowa l Spearman. Oznaczmy przez
a
i
range przyporzadkowana i-tej obserwacji z pier-
wszego ciagu, przez b
i
range przyporzadkowana
tej jednostce w drugim ciagu, oraz przez d
i
= a
i
−
b
i
.
Wz´
or na wsp´
o lczynnik korelacji rang mo˙zna
przedstawi´
c w postaci
r
d
= 1 −
6
P
n
i=1
d
2
i
n
(n
2
− 1)
∈ [−1, 1]
Warto´
s´
c r
d
= 1 oznacza idealna zgodno´
s´
c rang
wystepujacych w obu ciagach, warto´
s´
c r
d
= −1
oznacza maksymalna niezgodno´
s´
c rang.
Przyk lad. Grupa ekspert´
ow opracowa la nastepu-
jaca tabele:
Kraj
Ranga
roz.ekon
Ranga
stab.polit.
A
2
1
B
6
4
C
1
3
D
8
6
E
3
2
F
5
10
G
10
8
H
4
5
I
9
9
J
7
7
Otrzymamy:
d
i
d
2
i
1
1
2
4
−2
4
2
4
1
1
−5 25
2
4
−1
1
0
0
0
0
P
44
Mamy zatem
1 −
6
10
×
44
99
= 0.733
Oznacza to do´
s´
c silna dodatnia zale˙zno´
s´
c miedzy
rangami.
14
Regresja
1. Regresja I rodzaju.
Rozpatrzmy dwuwymiarowa zmienna losowa (X, Y )
typu skokowego.
Warunkowa warto´
s´
c oczekiwana zmiennej X:
E
(X|Y = y
j
) =
X
i
x
i
p
ij
p
·j
= m(y
j
)
Rozpatrzmy dwuwymiarowa zmienna losowa (X, Y )
typu ciag lego.
Warunkowa warto´
s´
c oczekiwana zmiennej X :
E
(X|Y = y) =
Z
+∞
−∞
x
f
(x, y)
f
2
(y)
dx
= m(y)
Funkcje m(y) nazywamy funkcja regresji I rodzaju
zmiennej losowej X wzgledem zmiennej losowej
Y.
Zmienna Y nazywamy zmienna niezale˙zna, nato-
miast zmienna losowa X nazywamy zmienna zale˙zna.
Wykres funkcji regresji I rodzaju w uk ladzie
wsp´
o lrzednych (x, y) nazywamy krzywa regresji
I rodzaju. Zale˙zno´
s´
c y → m(y) jest w og´
olno´
sci
nieliniowa.
Krzywe regresji I rodzaju maja w lasno´
s´
c mini-
malno´
sci:
E
[X − m(y)]
2
= min
u(y)
E
[X − u(y)]
2
Analogicznie mo˙zemy okre´
sli´
c funkcje regresji I
rodzaju zmiennej losowej Y wzgledem zmiennej
losowej X : x → m(x)
E
(Y |X = x
i
) =
X
j
y
j
p
ij
p
i·
= m(x
i
)
dla zmiennej losowej typu skokowego,
E
(Y |X = x) =
Z
+∞
−∞
y
f
(x, y)
f
1
(x)
dy
= m(x)
dla zmiennej losowej typu ciag lego
2. Regresja II rodzaju.
Prosta Y = αX + β spe lniajaca warunek
E
[Y − αX − β]
2
= min
(a,b)
E
[Y − aX − b]
2
nazywamy prosta regresji II rodzaju zmiennej losowej
Y
wzgledem zmiennej losowej X.
Warunki konieczne optymalno´
sci dla α, β :
∂E
[Y − αX − β]
2
∂α
= −2E ([Y − αX − β] X)
= 0
∂E
[Y − αX − β]
2
∂β
= −2E (Y − αX − β) = 0
E
XY − αX
2
− βX
= 0
E
(Y − αX − β) = 0
Czyli
E
(XY ) − αE
X
2
− βE(X) = 0
E
(Y ) − αE(X) − β = 0
W rezultacie:
α
=
E
(XY ) − E(X)E(Y )
E
X
2
− [E(X)]
2
β
= E(Y ) − αE(X)
α
=
cov
(X, Y )
D
2
(Y )
3. Klasyczny model regresji liniowej.
Krzywa regresji I rodzaju nie mo˙ze by´
c narzedziem
’predykcji’.
Przyjmujemy, ˙ze
E
(Y |X = x) = αx + β
D
2
(Y |X = x) = σ
2
czyli, ˙ze funkcja regresji I rodzaju Y wzgledem X
jest liniowa oraz, ˙ze wariancja zmiennej losowej Y
w jej warunkowych rozk ladach jest sta la.
Je˙zeli warunkowe rozk lady Y
sa normalne to
w´
owczas mamy do czynienia z klasycznym mod-
elem normalnej regresji liniowej: Y dla X = x ma
rozk lad N (αx + β, σ).
4. W klasycznym modelu regresji liniowej mamy do
czynienia z ciagiem par
(x
1
, Y
1
), (x
2
, Y
2
), ..., (x
n
, Y
n
)
bedaca n-elementowa pr´
oba losowa (zgodnie z
podej´
sciem klasycznym warto´
s´
ci zmiennej X sa
w pr´
obie ustalone).
Przyjmuje sie, ˙ze warto´
sci Y
i
w pr´
obie losowej
mo˙zna wyja´
sni´
c nastepujaco
Y
i
= E(Y |X = x
i
) + ε
i
= αx
i
+ β + ε
i
,
i
= 1, ..., n
przy czym ε
i
sa zmiennymi losowymi:
E
(ε
i
) = 0
D
2
(ε
i
) = σ
2
cov
(ε
i
, ε
j
) = 0
∀i 6= j
(W klasycznym modelu normalnej regresji liniowej
dodatkowo: ε
i
maja rozk lad normalny N (0, σ).)
W´
owczas bowiem mamy:
E
(Y
i
) = E (αx
i
+ β + ε
i
) = αx
i
+ β + E (ε
i
)
= αx
i
+ β
D
2
(Y
i
) = E
[Y
i
− αx
i
− β]
2
= E
ε
2
i
= σ
2
15
Klasyczny model regresji liniowej
Zak ladamy, ˙ze
Y
=
k
X
i=1
α
i
x
i
+ ε,
przy czym
E
(ε) = 0,
D
2
(ε) = var(ε) = σ
2
.
Je˙zeli x
1
= 1, to w´
owczas α
1
jest sk ladnikiem sta lym.
Zak ladamy, ˙ze rozk lad zmiennej losowej ε jest niezale˙zny
od warto´
sci x
1
, ..., x
k
.
Obowiazuja zale˙zno´
sci
E
(Y
| x
1
, ..., x
k
) =
k
X
i=1
α
i
x
i
,
E
(Y − E(Y
| x
1
, .., x
k
))
2
= E(ε
2
) = σ
2
.
Dokonujemy n obserwacji zmiennej
Y
oraz zmien-
nych obja´
sniajacych x
1
, ..., x
k
y
=
Y
1
Y
2
.
.
.
Y
n
,
X
=
x
11
x
12
. . . x
1k
x
21
x
22
. . . x
2k
.
.
. . .
.
.
.
. . .
.
.
.
. . .
.
x
n1
x
n2
. . . x
nk
Ξ =
ε
1
ε
2
.
.
.
ε
n
,
α
=
α
1
α
2
.
.
.
α
k
,
A
=
A
1
A
2
.
.
.
A
k
,
a
=
a
1
a
2
.
.
.
a
k
.
Ξ jest wektorem zmiennych losowych, A
i
sa estyma-
torami parametr´
ow α
i
, a
i
warto´
sciami tych estyma-
tor´
ow.
Obowiazuje r´
ownanie
y
= Xα + Ξ
Zak ladajac, ˙ze y jest realizacja zmiennej losowej y
wyznaczamy α metoda najmniejszych kwadrat´
ow:
min
α
n
[y − Xα]
T
[y − Xα]
o
=
min
α
n
y
T
y −
2y
T
Xα
+ α
T
X
T
Xα
o
= min
α
ψ
(α)
Warunki konieczne optymalno´
sci:
∂ψ
∂α
= 0 ⇒
−2y
T
X
+ 2X
T
Xα
= 0,
2X
T
X
=
∂
2
ψ
∂α
2
(α)
Za l´
o˙zmy, ˙ze n > k oraz, ˙ze X jest macierza pe lnego
rzedu. W´
owczas
∂
2
ψ
∂α
2
(α) > 0
oraz
a
=
h
X
T
X
i
−1
X
T
y
jest rozwiazaniem zadania estymacji. Poniewa˙z X jest
pe lnego rzedu macierz
h
X
T
X
i
−1
istnieje.
Twierdzenie. Je˙zeli macierz X ma wymiary n × k i
jest rzedu k, to w´
owczas istnieje macierz
h
X
T
X
i
−1
oraz wektor estymowanych parametr´
ow modelu dany
jest wzorem
a
=
h
X
T
X
i
−1
X
T
y.
Twierdzenie. Przy za lo˙zeniach przyjetych w poprzed-
nim twierdzeniu obowiazuja zale˙zno´
sci
1. E(A) = α
2.
var
(A) = E
(A − α) (A − α)
T
= σ
2
h
X
T
X
i
−1
.
Dow´
od.
A
=
h
X
T
X
i
−1
X
T
y
=
h
X
T
X
i
−1
X
T
[Xα + Ξ] .
Tak wiec
E
(A) = E
h
X
T
X
i
−1
X
T
[Xα + Σ]
= α + E
h
X
T
X
i
−1
X
T
Ξ
= α
var
(A) = E
h
X
T
X
i
−1
X
T
y − α
×
h
X
T
X
i
−1
X
T
y − α
T
=
E
h
X
T
X
i
−1
X
T
Ξ
h
X
T
X
i
−1
X
T
Ξ
T
!
=
E
h
X
T
X
i
−1
X
T
ΞΞ
T
X
h
X
T
X
i
−1
=
h
X
T
X
i
−1
X
T
E
h
ΞΞ
T
i
X
h
X
T
X
i
−1
= σ
2
h
X
T
X
i
−1
.
c.b.d.o.
Oznaczamy
= y − XA.
Twierdzenie. Je˙zeli spe lnione sa za lo˙zenia przyjete w
poprzednich
twierdzeniach
to
w´
owczas
wyra˙zenie
S
2
e
=
T
n − k
jest
nieobcia˙zonym
estymatorem
wariancji
σ
2
sk ladnika losowego ε.
Je˙zeli y jest realizacja zmiennej y to w´
owczas
s
2
e
=
y
T
y − y
T
X
h
X
T
X
i
−1
X
T
y
n − k
=
y
T
y − y
T
Xa
n − k
s lu˙zy jako miernik zgodno´
sci faktycznych warto´
sci zmi-
ennej y z jej warto´
sciami teoretycznymi
e
y
=
k
X
i=1
a
i
x
i
.
Twierdzenie. Je˙zeli sk ladniki losowe ε
i
maja rozk lad
normalny i spe lnione sa wszystkie za lo˙zenia z poprzed-
nich twierdze´
n to w´
owczas
1. estymatory [A
1
, ..., A
k
] maja k-wymiarowy rozk lad
normalny o wektorze warto´
sci oczekiwanej r´
ownym
α
i macierzy kowariancji r´
ownej
σ
2
h
X
T
X
i
−1
,
2. zmienna losowa
(n − k)
σ
2
S
2
e
ma rozk lad χ
2
o n − k stopniach swobody.
Dow´
od. (1) wynika z definicji A oraz faktu, ˙ze y jest
zmienna losowa o rozk ladzie normalnym.
(2) wynika z definicji rozk ladu χ
2
- jest to suma kwadrat´
ow
zmiennych losowych o rozk ladzie normalnym N (0, 1).
Zauwa˙zmy, ˙ze
S
2
e
=
T
n − k
,
tak wiec
(n − k)S
2
e
jest
suma
kwadrat´
ow
zmiennych
losowych
o rozk ladach normalnych. Mo˙zna pkaza´
c, ˙ze w sumie
mamy
(n
−
k
)
niezale˙znych
zmiennych
losowych o rozk ladzie normalnym. c.b.d.o.
Twierdzenie. Zmienna losowa
V
i
=
A
i
− α
i
S
e
(c
ii
)
1
2
ma rozk lad t-Studenta o n − k stopniach swobody.
Dow´
od. Zmienna losowa o rozk ladzie t-Studenta to
iloraz zmiennej losowej o rozk ladzie normalnym N (0, 1)
do zmiennej losowej o rozk ladzie χ
2
, pomno˙zony
przez pierwiastek z liczby stopni swobody zmiennej
χ
2
.
Mamy
V
i
=
A
i
− α
i
σ
(c
ii
)
1
2
:
(n − k)
1
2
S
e
σ
(n − k)
1
2
.
c.b.d.o.
Je˙zeli k = 2, to w´
owczas
y
= α
1
+ α
2
x
oraz
a
1
=
P
n
i=1
y
i
− a
2
P
n
i=1
x
i
n
= y − a
2
x,
a
2
=
n
P
n
i=1
x
i
y
i
−
P
n
i=1
y
i
P
n
i=1
x
i
n
P
n
i=1
x
2
i
−
P
n
i=1
x
i
2
oraz
b
σ,
b
σ
a
1
,
b
σ
a
2
sa estymatorami
D
(ε),
D
(a
1
),
D
(a
2
) :
b
σ
=
P
n
i=1
y
2
i
− a
1
P
n
i=1
y
i
− a
2
P
n
i=1
x
i
y
i
n −
2
1
2
,
b
σ
a
1
=
b
σ
n −
(
P
n
i=1
x
i
)
2
(
P
n
i=1
x
2
i
)
!
1
2
,
b
σ
a
2
=
b
σ
P
n
i=1
x
2
i
−
1
n
P
n
i=1
x
i
2
1
2
,
Krzywe ufno´
sci dla prostej regresji
e
y
= a
1
+ a
2
x
:
je˙zeli
e
y
i
jest warto´
scia funkcji regresji w punkcie x
i
oraz
b
y
i
oznacza oszacowana wato´
s´
c funkcji Y = α
1
+
α
2
x
+ε w punkcie x
i
to w´
owczas krzywe ufno´
sci okres-
lamy wed lug wzor´
ow
P
e
y
i
− t
γ,n−2
s
e
y
i
<
b
y
i
<
e
y
i
+ t
γ,n−2
s
e
y
i
= 1 − γ
przy czym t
γ,n−2
jest warto´
scia zmiennej o rozk ladzie
t
- Studenta, wyznaczona z tablicy tego rozk ladu dla
ustalonego wsp´
o lczynnika ufno´
sci 1 − γ (zauwa˙zmy,
ze u˙zywamy symbolu γ zamist symbolu α) i dla n − 2
stopni swobody. Ponadto
s
e
y
i
= s
e
1
n
+
(x
i
− x)
P
n
i=1
(x
i
− x)
2
!
1
2
oraz (jak poprzednio):
s
e
=
1
n −
2
n
X
i=1
(y
i
−
e
y
i
)
1
2
Okre´
slony
w
ten
spos´
ob
obszar
ufno´
sci
z prawdopodobie´
nstwem 1 − γ pokrywa prawdziwa
funkcje regresji Y = α
1
+ α
2
x
+ ε w populacji gener-
alnej.
Przedzia l ufno´
sci dla wsp´
o lczynnika regresji α
2
wyz-
nacza sie wed lug wzoru
P
a
2
− t
γ,n−2
s
e
P
n
i=1
(x
i
−x)
2
1
2
< α
2
< a
2
+ t
γ,n−2
s
e
P
n
i=1
(x
i
−x)
2
1
2
= 1 − γ
Przyk lad.
Y
= α
1
x
1
+ α
2
x
2
+ α
3
x
3
+ ε
y
=
0.1
4.8
3.9
8.2
0.7
1.1
2.0
3.2
,
X
=
1
−2 1
0
1
1
−1
1
1
3
1
1
−2
0
1
0
−1 1
−1
0
1
0
0
1
X
T
X
=
16 0 0
0
8 0
0
0 8
,
h
X
T
X
i
−1
=
1
16
0 0
0
1
8
0
0
0
1
8
X
T
y
=
17.4
15.6
24.0
,
a
=
1
16
0 0
0
1
8
0
0
0
1
8
×
17.4
15.6
24.0
=
1.09
1.95
3.00
y
T
y
= 121.44,
s
2
e
=
121.44 −
h
17.4 15.6 24.0
i
×
1.09
1.95
3.00
8 − 3
= 0.0108,
y
= 3.0.
Wsp´
o lczynnik zmienno´
sci przypadkowej
c
=
s
e
y
=
0.1
3
≈
0.033.
Empiryczny wsp´
o lczynnik zbie˙zno´
sci
ϕ
2
=
(n − k)s
2
e
P
8
i=1
(y
i
− y)
2
,
0 ≤ ϕ
2
≤ 1
- cze´
s´
c zaobserwowanej zmienno´
sci y nie wyjasnionej
przez model.
1 − ϕ
2
- wsp´
o lczynnik determinacji.
8
X
i=1
(y
i
− y)
2
=
8
X
i=1
y
2
i
− ny
2
= 121.44 − 72
= 49.44.
ϕ
2
=
(8 − 3) × 0.0108
49.44
= 0.001.
Testowanie hipotezy: H
0
: α
1
= 0.
v
1
=
1.09
(0.0108)
1
2
×
1
16
1
2
≈
41.9.
H
0
: α
2
= 0
v
2
=
1.95
(0.0108)
1
2
×
1
8
1
2
≈
52.7.
Przy poziomie istotno´
sci α = 0.01, warto´
s´
c krytyczna
v
α
= 4.03.
W obu przypadkach hipoteze nale˙zy odrzuci´
c.
16
Modele tendencji rozwojowej
Wyznaczanie funkcji trendu
1. Zmienna endogeniczna jest jedynie funkcja czasu
(oraz parametr´
ow funkcji)
2. Analiza graficzna umo˙zliwia wyb´
or funkcji trendu:
liniowa, wyk ladnicza, logarytmiczna. Na przyk lad
dla funkcji wyk ladniczej punkty empiryczne po lo˙zone
sa wzd lu˙z lini prostej w uk ladzie wsp´
o lrzednych
(t, log y
t
).
Dla funkcji logarytmicznej punkty empiryczne
po lo˙zone sa wzd lu˙z lini prostej w uk ladzie
wsp´
o lrzednych
(log t, log y
t
).
3. Dob´
or funkcji poprzez obserwacje przyrost´
ow ab-
solutnych
∆y
t
= y
t
− y
t−1
,
wzglednie przyrost´
ow wzglednych
∆y
t
y
t−1
,
itp.
Je˙zeli funkcja trendu jest liniowa to analizujemy model
∆Y
t
= β
1
+ β
2
t
+ ε,
przy czym ε jest sk ladnikiem losowym o parametrach:
E
(ε) = 0, var(ε) = σ
2
.
Je˙zeli funkcja trendu jest liniowa to w´
owczas b
2
powinien
w spos´
ob nieistotny r´
ozni´
c sie od zera.. Po wyesty-
mowaniu parametr´
ow modelu werifikujemy hipoteze
H
0
: β
2
= 0.
Je˙zeli nie ma podstaw do odrzucenia hipotezy H
0
to
przyjmujemy,
ze nasze za lo˙zenie o liniowej funkcji
trendu jest zasadne.
W przypadku wyk ladniczej funkcji trendu budujemy
model
∆Y
t
Y
t−1
= β
1
+ β
2
t
+ ε.
Nastepnie weryfikujemy hipoteze
H
0
: β
2
= 0.
Je˙zeli nie ma podstaw do odrzucenia hipotezy, to nie
ma r´
ownie˙z podstaw do odrzucenia naszego za lo˙zenia,
˙ze funkcja trendu jest wyk ladnicza. (Przyjmijmy, ˙ze
funkcja jest wyk ladnicza:
y
t
=
α
1
α
t
2
,
y
t−1
= α
1
α
t−1
2
⇒
∆y
t
y
t−1
= α
2
− 1)
W przypadku logarytmicznej funkcji trendu budujemy
model:
∆Y
t
Y
t−1
= β
1
+ β
2
Y
t
+ ε
oraz werifikujemy hipoteze
H
0
: β
2
= 0
Przyk lad. Produkcja wegla kamiennego (w mln ton)
w roku 1993 wynosi la:
Miesiac
Produkcja
1
11.4
2
11.5
3
13.3
4
11.4
5
9.8
6
9.6
7
9.1
8
9.4
9
10.8
10
11.8
11
11.1
12
12.6
Poda´
c prognoze produkcji wegla na kolejne 3 miesiace
korzystajac z modelu liniowego.
Weryfikacja zale˙zno´
sci liniowej. Budujemy model:
∆Y
t
= β
1
+ β
2
t
+ ε.
Otrzymamy:
∆Y
t
=
−0.667 + 0.1109 × t + ε
(0.17)
Weryfikacja hipotezy
H
0
: β
2
= 0
v
=
b
2
(var(B
2
))
1
2
=
0.1109
0.17
≈
0.652.
Warto´
s´
c statystyki t-Studenta przy poziomie istotno´
sci
α
= 0.05 oraz przy 9 stopniach swobody wynosi t
α
=
2.262.
Konkluzja - nie ma podstaw do odrzucenia hipotezy.
Budowa modelu liniowego zale˙zno´
sci - miesiac-produkcja
wegla kamiennego:
Y
t
= α
1
+ α
2
t
+ ε.
Stosujac metode najmniejszych kwadrat´
ow otrzymamy:
Y
t
=
11.111 + (−0.02) × t +
ε
(0.84)
(0.114)
(1.36)
Budowa prognozy:
Miesiac
Produkcja
13
11.111-0.02×13 = 10.84
14
11.111-0.02×14 = 10.82
15
11.111-0.02×15 = 10.80
´
Sredni b lad prognozy
y
pT
= a
1
+ a
2
× T
mo˙ze by´
c okre´
slony wzorem:
S
pT
=
"
(T − t)
2
P
n
t=1
(t − t)
2
+
1
n
+ 1
#
s
2
e
!
1
2
.
Przyk lad. Produkcja telewizor´
ow kolorowych podana
jest w tabeli.
Rok
Kolejny numer roku
Produkcja telewizor´
ow
1985
1
4.2
1986
2
4.5
1987
3
5.6
1988
4
5.7
1989
5
6.2
1990
6
8.9
1991
7
7.9
1992
8
16.3
1993
9
21.9
1994
10
22.9
Okre´
slamy model:
∆Y
t
Y
t−1
= β
1
+ β
2
t
+ ε.
Stosujac metode najminiejszych kwadrat´
ow wyznaczamy
model:
∆Y
t
Y
t−1
=
0.06954
+ 0.03474 × t +
ε
(0.25756)
(0.04577)
(0.35453)
Przyjmujac rozk lad normalny zmiennej ε uzyskamy, ˙ze
zmienna losowa
t
=
B
2
− β
2
(var(B
2
))
1
2
ma rozk lad t-Studenta z liczba stopni swobody n−k =
9 − 2 = 7.
H
0
: β
2
= 0.
t
=
0.03474
0.045769
= 0.759.
Przy poziomie istotno´
sci α = 0.05 i dla 7 stopni swo-
body mamy t
α
= 2.365. Konkluzja - nie ma podstaw
do odrzucenia hipotezy.
Przyjmujemy nastepujacy model: Y
t
= α
1
α
t
2
10
ε
, α
2
>
0, α
2
6= 1. Mo˙zemy wyznaczy´
c α
1
, α
2
metoda najm-
niejszych kwadrat´
ow:
min
α
1
,α
2
n
X
i=1
(y
i
− α
1
α
i
2
)
2
= min
α
1
,α
2
Ψ(α
1
, α
2
)
Warunki konieczne optymalnosci:
d
Ψ
dα
1
= 2
n
X
i=1
(y
i
− a
1
a
i
2
)(−a
i
1
) = 0
d
Ψ
dα
2
= 2
n
X
i=1
(y
i
− a
1
a
i
2
)(−a
1
ia
i−1
2
) = 0
a
1
n
X
i=1
a
2i
2
=
n
X
i=1
y
i
a
i
2
a
1
n
X
i=1
a
2i
2
i
=
n
X
i=1
iy
i
a
i
2
Jest to uk lad nieliniowy.
Po wprowadzeniu skali logarytmicznej otrzymamy:
log
10
Y
t
= log
10
α
1
+ log
10
α
2
× t + ε.
W wyniku estymacji metoda najmniejszych kwadrat´
ow
otrzymamy
log
10
y
t
=
0.455526
+ 0.086780 × t +
ε
(0.060731)
(0.009788)
(0.08890)
Ponadto: ϕ
2
= 0.0924.
17
Testy zgodno´
sci
1. Statystyka χ
2
Pearsona.
Niech F (x) bedzie dana dystrybuanta populacji
generalnej. Dzielimy o´
s x na r roz lacznych zbior´
ow
S
k
i
niech
π
k
(k
=
1, ..., r)
bedzie
prawdopodobie´
nstwem, ˙ze zmienna losowa X przy-
biera warto´
s´
c nale˙zaca do S
k
.
Je˙zeli za S
k
przyjmiemy
przedzia l [a
k
, a
k+1
), to
π
k
= F (a
k+1
) − F (a
k
).
Liczbe π
k
nazywamy czesto´
scia teoretyczna.
Przypu´
s´
cmy, ˙ze mamy n niezale˙znych obserwacji
zmiennej losowej X : x
1
, x
2
, ..., x
n
.
Obserwacje
te dzielimy na r grup zaliczajac do k-tej grupy
te warto´
sci, kt´
ore nale˙za do zbioru S
k
.
Oznaczmy
przez n
k
ilo´
s´
c obserwacji nale˙zacych do S
k
.
Oczywi´
scie n
k
sa zmiennymi losowymi.
Statystyke
χ
2
=
r
X
i=1
(n
k
− nπ
k
)
2
nπ
k
nazywamy statystyka χ
2
Pearsona.
Twierdzenie. Niech czesto´
sci teoretyczne π
k
beda
dane. W´
owczas {F
n
(z)} statystyki χ
2
okre´
slonej
powy˙zej jest zbie˙zny (n → ∞) do dystrybuanty
rozk ladu χ
2
o r − 1 stopniach swobody.
Je˙zeli nie znamy pewnych parametr´
ow rozk ladu:
λ
1
, ..., λ
k
to w´
owczas parametry te mo˙zemy wyesty-
mowa´
c metoda najwiekszej wiarogodno´
sci.
Twierdzenie. Je˙zeli nieznane k warto´
sci λ
1
, ..., λ
k
wyznacza sie z pr´
oby metoda najwiekszej wiaro-
godno´
sci, to rozk lad statystyki χ
2
(okre´
slonej powy˙zej)
zmierza do rozk ladu χ
2
o r − k − 1 stopniach swo-
body.
2. Przyk lad. Z partii towaru wybieramy pr´
obe prosta
zawierajaca n = 100 element´
ow, w´
sr´
od kt´
orych
znaleziono n
1
= 22 sztuk wadliwych. Na pod-
stawie tej pr´
oby chcemy zweryfikowa´
c, na poziomie
istotno´
sci α = 0.01, hipoteze H
0
, ˙ze w trakcie
wybierania pr´
oby parwdopodobie´
nstwo wyboru wadli-
wej sztuki wynosi lo stale p = 0.20. Inaczej m´
owiac
w my´
sl tej hipotezy n
1
= 22 jest zaobserwowana
warto´
scia zmiennej losowej o rozk ladzie dwumi-
anowym przy p = 0.20 oraz n = 100.
Stosujemy test χ
2
.
Hipoteza H
0
okre´
sla tu ca lkowicie
rozk lad. Rozk ladamy ca la mase obserwacji na n
1
sztuk wadliwych i n
2
= n − n
1
sztuk dobrych.
Czesto´
sciami teoretycznymi tych grup beda odpowied-
nio p = 0.2 oraz q = 1 − p = 0.8. Otrzymujemy
χ
2
=
(n
1
− np)
2
np
+
(n
2
− nq)
2
nq
=
2
2
20
+
2
2
80
=
1
4
Mamy tu dwie grupy, tj.
r
= 2; rozpatrujemy
rozk lad χ
2
o jednym stopniu swobody. Z tablic
χ
2
odczytujemy, ˙ze P
χ
2
≥ 6.6
= 0.01, a wiec
prawdopodobie´
nstwo, ˙ze warto´
s´
c χ
2
bedzie niem-
niejsza od
1
4
, jest znacznie wieksze od 0.01; nie
ma wiec podstaw do odrzucenia hipotezy H
0
.
3. Empiryczny rozk lad cechy.
Za l´
o˙zmy, ˙ze cecha przyjmuje k wartosci x
i
,
i=1,...,k.
Przyjmujemy, ˙ze warto´
sci te sa uprzadkowane tak,
aby
x
min
= x
1
< x
2
< ... < x
k
= x
max
Liczbe jednostek zbiorowo´
sci, dla kt´
orych cecha
przyjmuje warto´
s´
c x
i
, oznaczamy symbolem n
i
.
Oczywi´
scie mamy
k
X
i=1
n
i
= n
Je˙zeli poszczeg´
olnym warto´
sciom x
i
cechy przy-
porzadkowane sa liczebnosci n
i
to w ten spos´
ob
okre´
slony jest rozk lad empiryczny.
Zamiast liczebnosci n
i
stosuje sie r´
ownie˙z czesto´
sci
okre´
slone nastepujaco
w
i
= n
i
/n, i
= 1, ..., k
k
X
i=1
w
i
= 1
Je˙zeli cecha przyjmuje du˙zo warto´
sci, traktuje sie
ja jako ciag la niezale˙znie od tego, czy z definicji
jest ciag la, czy skokowa.
W przypadku cechy
ciag lej okre´
slanie rozk ladu odbywa sie przez przy-
porzadkowanie liczebnosci (czestosci) odpowied-
nim przedzia lom warto´
sci cechy, a nie konkret-
nym jej warto´
sciom. Takie przedzia ly nazywamy
przedzia lami klasowymi.
Dystrybuanta empiryczna F
n
(x) nazywamy funkcje
okre´
slona na podstawie danych (x
i
, w
i
),i = 1, ..., k :
F
n
(x) =
0 dla x < x
1
P
i
s=1
w
s
dla x
i
≤ x < x
i+1
,
i
= 1, 2, ..., k − 1
1 dla x ≥ x
k
4. Twierdzenie (Gliwienki). Niech F
n
(x) bedzie dys-
trybuanta empiryczna w n - elementowej pr´
obie
prostej wylosowanej z populacji, w kt´
orej zmienna
X
ma dystrybuante F (x) . Prawdopodobie´
nstwo,
˙ze ciag {F
n
(x)} jest jednostajnie zbie˙zny wzgle-
dem x (−∞ < x < ∞) zbie˙zny do dystrybuanty
teoretycznej F (x), r´
owna sie jednosci.
Twierdzenie Gliwienki mozna zapisa´
c w nastepu-
jacej postaci. Oznczamy
D
n
=
sup
−∞<x<∞
|F
n
(x) − F (x)|
Teza twierdzenia orzeka, ˙ze zachodzi r´
owno´
s´
c
P
lim
n→∞
D
n
= 0
= 1
Oznaczamy przez Q
n
(λ) dystrybuante zmiennej
losowej D
n
(n)
1
2
:
Q
n
(λ) =
P
D
n
(n)
1
2
< λ
= P
D
n
< λ/
(n)
1
2
,
gdy λ > 0,
0, gdy λ ≤ 0
Twierdzenie (Ko lmogorowa). Niech F
n
(x) bedzie
dystrybuanta empiryczna w n - elementowej pr´
obie
prostej wylosowanej z populacji, w kt´
orej zmienna
X
ma ciag la dystrybuante F (x) . W´
owczas za-
chodzi relacja
lim
n→∞
Q
n
(λ) =
Q
(λ) =
(
P
∞
k=−∞
(−1)
k
exp
−2k
2
λ
2
,
gdy λ > 0
0, gdy λ ≤ 0
Test λ - Ko lmogorowa zbudowany jest w nastepu-
jacy spos´
ob. Hipoteza zerowa jest przypuszcze-
nie, ˙ze populacja ma ciag ly rozk lad okreslony dys-
trybuanta F
0
(x) :
H
0
: F (x) = F
0
(x) wobec H
1
: F (x) 6= F
0
(x)
Losujemy n - elementowa du˙za pr´
obe, a nastep-
nie okre´
slamy rozk lad empiryczny F
n
(x) . Miara
zgodnosci tych dw´
och dystrybuant jest statystyka
D
n
(x) oraz okre´
slony na jej podstawie rozk lad
graniczny Q (λ) . Je˙zeli prawdziwa jest hipoteza
zerowa to w´
owczas statystyka ta nie powinna przy-
biera´
c duzych warto´
sci. Obszar krytyczny okre´
slony
jest zale˙zno´
scia:
P
(λ ≥ λ
α
) = α,
gdzie α jest poziomem istotnosci.
5. Przyk lad (J´
o˙zwiak, Podg´
orski - Statystyka od pod-
staw).
Jednostkowe koszty produkcji pewnego
wyrobu maja rozk lad normalny. W celu sprawdzenia
tego
przypuszczenia
dokonano
pr´
oby
prostej
o liczebnosci n = 200 :
i
Koszty jednostkowe
Liczba zak lad´
ow
1
2.50-3.50
5
2
3.50-4.50
10
3
4.50-5.50
35
4
5.50-6.50
80
5
6.50-7.50
50
6
7.50-8.50
10
7
8.50-9.50
10
P
200
Na podstawie pr´
oby okreslono warto´
sci estyma-
tor´
ow: m, σ rozk ladu normalnego - x = 6.15, s =
1.216
Oblczenie statystyki D
n
podane jest w tabeli:
i
x
u
Φ (u)
w
i
F
n
(x)
D
n
1
3.50
-2.18
0.015
0.025
0.025
0.010
2
4.50
-1.36
0.087
0.050
0.075
0.012
3
5.50
-0.54
0.295
0.175
0.250
max
0.045
4
6.50
-0.29
0.614
0.400
0.650
0.036
5
7.50
1.11
0.867
0.250
0.900
0.033
6
8.50
1.93
0.973
0.050
0.950
0.023
7
9.50
2.76
0.997
0.050
1.00
0.003
Warto´
s´
c statystyki λ - Ko lmogorowa wynosi: λ =
0.045 (200)
1
2
= 0.637. Dla α = 0.05 otrzymujemy
λ
α
= 1.36. Poniewa˙z λ < λ
α
nie ma podstaw do
odrzucenia hipotezy.
18
Analiza danych: mierniki po lo˙zenia
i rozproszenia
1. ´
Srednia arytmetyczna w rozk ladzie empirycznym
nazywamy wyra˙zenie:
x
=
1
n
X
x
j
gdzie x
j
, j = 1, ..., n sa indywidualnymi obserwac-
jami w zbiorze danych a n jest liczba obserwacji.
Je˙zeli dysponujemy danymi przedstawionymi w
postaci szeregu rozdzielczego to w´
owczas
x
=
1
n
k
X
i=1
x
i
n
i
gdzie x
i
sa wyr´
o˙znionymi warto´
sciami w rozk ladzie,
za´
s n
i
odpowiednimi liczebno´
sciami klasowymi.
R´
ownowa˙znie:
x
=
k
X
i=1
x
i
w
i
´
Srednia arytmetyczna ma w lasno´
sci:
(a) xn =
P
n
j=1
x
j
(b)
P
n
j=1
x
j
− x
= 0
(c)
P
n
j=1
x
j
− C
2
osiaga minimum dla C = x
Przyk lad 1 (J´
o˙zwiak, Podg´
orski - Statystyka od
podstaw).
Sprawdzono 20 stron maszynopisu
znajdujac na nich nastepujace liczby b led´
ow: 0,
3, 1, 1, 2, 2, 0, 0, 3, 5, 0, 1, 2, 2, 1, 1, 0, 1, 1,
1.
Liczba b led´
ow
Liczba stron
x
j
n
j
0
5
1
8
2
4
3
2
4
0
5
1
P
20
Liczba b led´
ow
x
j
0
1
2
3
4
5
P
Skumulowana liczba
Czesto´
s´
c
stron n
x
j
stron w
j
5
0.25
13
0.40
17
0.20
19
0.10
19
0
20
0.05
1.00
Otrzymamy:
x
=
1
20
0 + 3 + 1 + 1 + 2 + 2 + 0 + 0
+3 + 5 + 0 + 1 + 2+
2 + 1 + 1 + 0 + 1 + 1 + 1
Ale r´
ownie˙z:
x
=
1
20
0 × 5 + 1 × 8 + 2 × 4
+3 × 2 + 4 × 0 + 5 × 1
!
Przyk lad 2 (J´
o˙zwiak, Podg´
orski - Statystyka od
podstaw). Zmierzono czas obs lugi przy kasie skle-
powej 25 losowo wybranych klient´
ow, uzyskujac
dane: 15, 37, 34, 9, 61, 24, 56, 52, 6, 36, 21, 46,
86, 40, 74, 39, 48, 55, 73, 92, 43, 78, 67, 30, 29.
Przyjmujemy liczbe klas r´
owna 5
Czas obs lugi
Liczba klient´
ow
klienta (w s.)
n
i
x
0i
− x
1i
0-20
3
20-40
9
40-60
6
60-80
5
80-100
2
Czas obs lugi
Skumulowana
klienta (w s.)
liczba klient´
ow
x
0i
− x
1i
n
(x
1i
)
0-20
3
20-40
12
40-60
18
60-80
23
80-100
25
Otrzymamy: x =
1
25
(15 + 37 + 34 + ... + 30 + 29)
=
1
25
1150 = 46.
Ale r´
ownie˙z
x
≈
1
n
k
X
j=1
e
x
j
n
j
gdzie
e
x
j
jest ´
srodkiem j - tego przedzia lu kla-
sowego. Czyli mamy r´
ownie˙z
x
≈
1
25
(10 × 3 + 30 × 9 + ... + 90 × 2) = 45.2
2. Mediana rozk ladu empirycznego me nazywamy
taka warto´
s´
c cechy, ˙ze co najmniej po lowa jednos-
tek zbiorowo´
sci ma warto´
s´
c cechy nie wieksza od
niej i r´
ownocze´
snie co najmniej po lowa jednostek
ma warto´
s´
c cechy nie mniejsza od tej warto´
sci.
Przyk lad 2. Czas obs lugi uporzadkowany rosnaco:
6, 9, 15, 21, 24, 29, 30, 34, 35, 37, 39, 40, 43, 46,
48, 52, 55, 56, 61, 67, 73, 74, 78, 86, 92. Numer
jednostki ´
srodkowej wynosi (25+1)/2=13, zatem
mediana jest me = x
13
= 43s.
W przypadku cechy o rozk ladzie ciag lym stosu-
jemy interpolacje:
me
= x
0m
+
n
2
− n (x
0m
)
h
m
n
m
przy czym x
0m
- dolna granica przedzia lu, w kt´
orym
znajduje sie mediana, h
m
, n
m
- odpowiednio: rozpi-
eto´
s´
c i liczebno´
s´
c przedzia lu mediany.
Mo˙zemy r´
ownie˙z skorzysta´
c ze wzoru:
me
= x
0m
+
1
2
− F
n
(x
0m
)
h
m
w
m
gdzie F
n
(x
0m
) jest warto´
scia dystrybuanty em-
pirycznej dla dolnej granicy przedzia lu mediany.
Przyk lad 2.
x
0i
− x
1i
n
(x
1i
)
F
n
(x
1i
)
0-20
3
0.12
20-40
12
0.48
40-60
↓
18
0.72
60-80
23
0.92
80-100
25
1.00
Mamy
n
2
=
25
2
= 12.5 oraz
me
= 40 + (12.5 − 12)
20
6
= 40 + 1.67 = 41.67s.
3. Kwantylem rzedu p (0 < p < 1) w rozk ladzie em-
pirycznym nazywamy taka warto´
s´
c cechy k
p
, dla
kt´
orej - jako pierwszej - dystrybuanta empiryczna
spe lnia warunek
F
n
(k
p
) ≥ p
Wz´
or interpolacyjny:
k
p
= x
0p
+
h
p − F
n
x
0p
i
h
p
w
p
przy czym x
0p
- dolna granica przedzia lu, w kt´
orym
znajduje sie warto´
s´
c kwantyla, h
p
, n
m
- odpowied-
nio: rozpieto´
s´
c i liczebno´
s´
c przedzia lu kwantyla.
(a) kwartyle - kwantyle rzedu 0.25, 0.5, 0.75 (kwartyl
pierwszy - Q
1
,
kwartyl drugi - Q
2
,
kwartyl
trzeci - Q
3
(b) decyle - kwantyle rzedu 0.1, 0.2, .03,...,0.9
(oznaczane odpowiednio - D
1
, ..., D
9
)
(c) centyle
(percentyle)
-
kwantyle
rzedu
0.01, 0.02,...,0.99 (oznaczamy odpowiednio -
P
1
, ..., P
99
)
Przyk lad (czas obs lugi przy kasie sklepowej):
Q
1
= k
0.25
= 20 + (0.25 − 0.12)
20
0.36
= 20 + 7.2 = 27.2
Q
3
= k
0.75
= 60 + (0.75 − 0.72)
20
0.20
= 60 + 3 = 63
Obliczenia na podstawie danych indywidualnych:
numer obserwacji = (25+1)/4=6.5 , Q
1
= x
7
=
30.
4. Dominanta do w rozk ladzie empirycznym nazy-
wamy warto´
s´
c wystepujaca w tym rozk ladzie na-
jcze´
sciej, tzn. warto´
s´
c, kt´
orej odpowiada najwiek-
sza liczebno´
s´
c (czesto´
s´
c).
Przyk lad (czas obs lugi przy kasie sklepowej): dom-
inanta znajduje sie w przedziale 20-40 s.
Wz´
or aproksymacyjny:
do
= x
0d
+
n
d
− n
d−1
n
d
− n
d−1
+ n
d
− n
d+1
h
d
przy czym x
0d
- dolna granica przedzia lu, w kt´
orym
znajduje sie dominanta, h
d
- rozpieto´
s´
c tego
przedzia lu, n
d
, n
d−1
, n
d+1
- odpowiednio liczebno´
s´
c
przedzia lu, w kt´
orym wystepuje dominanta, przedzia lu
poprzedniego i przedzia lu nastepnego. Na pod-
stawie tego wzoru
do
= 20 +
9 − 3
(9 − 3) + (9 − 6)
20
= 20 + 13.33 = 33.33s.
19
Analiza danych: miary zr´
o˙znicowania
cechy
1. Wariancja dla danych x
1
, ..., x
n
nazywamy wyra˙zenie
s
2
=
1
n −
1
n
X
i=1
(x
i
− x)
2
gdzie x jest ´
srednia arytmetyczna.
Mamy:
s
2
=
1
n −
1
n
X
i=1
x
2
i
−
n
X
i=1
x
i
2
/n
=
1
n −
1
n
X
i=1
x
2
i
− n (x)
2
W przypadku szeregu rozdzielczego:
s
2
=
1
n −
1
n
X
i=1
(x
i
− x)
2
n
i
oraz
s
2
=
1
n −
1
n
X
i=1
x
2
i
n
i
− n (x)
2
Przyk lad (czas obs lugi klient´
ow przy kasie):
s
2
=
1
25−1
"
(15 − 46)
2
+ (37 − 46)
2
+ ...
+ (29 − 46)
2
#
=
548.3
czyli s = 23.42.
Na podstawie szeregu rozdzielczego otrzymamy:
s
2
= 542.67 oraz s = 23.3.
2. Niech x bedzie obserwacja nale˙zaca do zbioru danych
o ´
sredniej x oraz odchyleniu standardowym s.
Warto´
scia standaryzowana odpowiadajaca obserwacji
x
jest warto´
s´
c u otrzymana z przekszta lcenia
u
=
x − x
s
Mamy
(a)
u
= 0
(b)
s
2
u
= 1
W praktyce przyjmuje sie czesto za nietypowe te
warto´
sci, dla kt´
orych |u| > 3.
Dla standaryzowanego rozk ladu normalnego mamy,
˙ze P (−3 < U < 3) = 0.99730
3. Wsp´
o lczynnikiem zmienno´
sci V jest
V
=
s
x
4. Rozstepem jest r´
o˙znica miedzy najwieksza i na-
jmniejsza warto´
scia cechy w zbiorze.
5. Rozstep (przedzia l) ´
cwiartkowy to r´
o˙znica miedzy
kwartylem trzecim i pierwszym, czyli Q
3
− Q
1
.
Przyk lad (czas obs lugi...): rozstep - 92-6 =86,
przedzia l ´
cwiartkowy - 61-30=31.
20
Analiza danych: asymetria rozk ladu
empirycznego
1. M´
owimy, ˙ze rozk lad empiryczny jest symetryczny,
je´
sli ka˙zdej warto´
sci cechy x
i
< x
odpowiada
warto´
s´
c x
j
taka, ˙ze
x − x
i
= x
j
− x
oraz n
i
= n
j
.
2. Trzeci moment centralny zdefiniowany jest nastepu-
jaco:
M
3
=
1
n
n
X
i=1
(x
i
− x)
3
oraz dla szeregu rozdzielczego:
M
3
=
1
n
n
X
i=1
(x
i
− x)
3
n
i
Je˙zeli rozk lad empiryczny jest symetryczny to
w´
owczas M
3
= 0. Je˙zeli M
3
<
0 to w´
owczas
rozk lad empiryczny ma asymetrie lewostronna.
Je˙zeli M
3
>
0 to w´
owczas mamy do czynienia z
asymetria prawostronna (wyd lu˙zone prawe ramie
rozk ladu).
3. Wsp´
o lczynnikiem asymetrii jest wielko´
s´
c:
A
=
M
3
s
3
Przyk lad
(rozk lad
liczby
b led´
ow
na
stronie
maszynopisu):
x
i
n
i
x
i
− x
(x
i
− x)
3
n
i
0
5
-1.35
-12.302
1
8
-0.35
-0.343
2
4
0.65
1.099
3
2
1.65
8.984
4
0
2.65
0
5
1
3.65
48.627
P
20
46.065
Odchylenie standardowe wynosi s = 1.268, czyli
mamy: M
3
= 46.065/20 = 2.303 oraz A =
2.303/ (1.628)
3
= 0.534.
4. Wsp´
o lczynnik sko´
sno´
sci zdefiniowany jest nastepu-
jaco:
A
1
= (x − do) /s
Je˙zeli A
1
= 0 to w´
owczas rozk lad empiryczny jest
symetryczny.
5. Pozycyjny wsp´
o lczynnik asymetrii:
A
3
=
(Q
2
− me) − (me − Q
1
)
2Q
Je˙zeli asymetria rozk ladu jest lewostronna, to
w´
owczas A
3
<
0, odwrotna sytuacja jest dla
asymetrii prawostronnej.
21
Analiza danych:
koncentracja
warto´
sci cechy
1. Przez koncentracje rozumie sie nier´
ownomierne
rozdysponowanie lacznej sumy warto´
sci cechy w
badanej zbiorowo´
sci pomiedzy jednostki tworzace
ta zbiorowo´
s´
c.
2. Przyk lad (J´
o˙zwiak, Podg´
orski - Statystyka od pod-
staw):
PGR (w ha)
CZG
LP (w ha)
CZ LP
0.5-2
0.296
918 914
0.058
2-5
0.276
2 377 556
0.150
5-7
0.123
2 049 968
0.130
7-10
0.129
2 856 810
0.181
10-15
0.107
3 526 142
0.223
>
15
0.069
4 067 453
0.258
P
1.00
15 769 843
1.00
Przy czym: PGR - powierzchnia gospodarstwa
rolnego, CZG - czesto´
s´
c gospodarstw, LP - laczna
powierzchnia, CZ LP - czesto´
s´
c lacznej powierzchni
Wysokiemu odsetkowi gospodarstw o niskiej
powierzchni odpowiada relatywnie niski ich udzia l
w lacznej powierzchni wszystkich gospodarstw.
i
GGPG
SCZG
SCZP
1
2
0.296
0.058
2
5
0.572
0.208
3
7
0.695
0.338
4
10
0.824
0.519
5
15
0.931
0.642
6
∞
1.00
1.00
przy czym GGSP - g´
orna granica powierzchni gospo-
darstwa, SCZG - skumulowana czesto´
s´
c gospo-
darstw, SCZP - skumulowana czesto´
s´
c powierzchni.
Na podstawie powy˙zszej tabeli wykre´
slamy krzywa
koncentracji Lorenza.
Jako miare koncentracji stosujemy wsp´
o lczynnik
Giniego: K = 2T = 1 − 2P, przy czym T jest
polem pod przekatna wykresu, natomiast P jest
polem pod krzywa koncentracji. Przy braku kon-
centracji mamy K = 0. Z oblicze´
n mamy 2P =
0.523,K=1-0.523=0.477. ´
Swiadczy to o do´
s´
c sil-
nej koncentracji powierzchni indywidualnych gospo-
darstw rolnych.
22
Analiza szereg´
ow czasowych: ad-
dytywny model tendencji rozwo-
jowej
1. Klasyczny liniowy model tendencji rozwojowej
Y
t
= α
2
t
+ α
1
+ ε
t
.
przy czym
E
(ε
t
) = 0,
D
2
(ε
t
) = σ
2
,
cov
(ε
t
, ε
s
) = 0,
je˙zeli t 6= s.
2. Addytywny liniowy model tendencji rozwojowej
Y
t
= α
2
t
+ α
1
+ β
1
Q
t1
+ β
2
Q
t2
+β
3
Q
t3
+ β
4
Q
t4
+ ε
t
przy czym ε
t
spe lnia warunki jak w punkcie (1).
Ponadto β
i
sa parametrami za´
s Q
ti
sa zmiennymi
niezale˙znymi okre´
slonymi nastepujaco: przyjmuja
warto´
sci sta le r´
owne 1 dla poszczeg´
olnego podokresu.
Zak ladamy, ˙ze wystepuja 4 podokresy cyklu.
3. Wprowadzajac oznaczenia
X
=
t
Q
t1
Q
t2
Q
t3
Q
t4
1
1
1
0
0
0
1
1
0
1
0
0
3
1
0
0
1
0
4
1
0
0
0
1
5
1
1
0
0
0
6
1
0
1
0
0
-
-
-
-
-
-
n −
1
1
0
0
1
0
n
1
0
0
0
1
γ
=
α
2
α
1
β
1
β
2
β
3
β
4
,
y
=
Y
1
Y
2
.
.
.
Y
n
Ξ =
ε
1
ε
2
.
.
.
ε
n
r´
ownania n eksperyment´
ow pr´
oby prostej mo˙zemy
zapisa´
c
y
= Xγ + Ξ
4. Estymacja parametr´
ow modelu: γ na podstawie
n
- elementowej pr´
oby prostej.
Zauwa˙zmy, ˙ze
macierz X nie jest pe lnego rzedu. Wynika to z
tego, ˙ze
4
X
i=1
Q
ti
= 1
Dlatego nie jest mo˙zliwe okre´
slenie macierzy
X
T
X
−1
kt´
ora wymagamy gdy problem estymacji parametr´
ow
rozwiazujemy metoda najmniejszych kwadrat´
ow.
Istnieja dwie metody ominiecia tego problemu.
5. W pierwszej procedurze eliminujemy jedna ze zmi-
ennych z zale˙zno´
sci
4
X
i=1
Q
ti
= 1
np.
Q
t1
= 1 −
4
X
i=2
Q
ti
W´
owczas r´
ownanie modelu bedzie mia lo posta´
c:
Y
t
= α
2
t
+ (α
1
+ β
1
) + (β
2
− β
1
) Q
t2
+ (β
3
− β
1
) Q
t3
+ (β
4
− β
1
) Q
t4
+ ε
t
oraz r´
ownania eksperyment´
ow pr´
oby prostej
y
=
f
X
e
γ
+ Ξ
przy czym
f
X
=
t
Q
t2
Q
t3
Q
t4
1
1
0
0
0
1
1
1
0
0
3
1
0
1
0
4
1
0
0
1
5
1
0
0
0
6
1
1
0
0
-
-
-
-
-
n −
1
1
0
1
0
n
1
0
0
1
oraz
e
γ
=
α
2
α
1
+ β
1
β
2
− β
1
β
3
− β
1
β
4
− β
1
Macierz
f
X
jest
pe lnego
rzedu
wiec
estymacja parametr´
ow
e
γ
metoda najmniejszych
kwadrat´
ow jest wykonalna. Otrzymamy
e
Γ =
f
X
T
f
X
−1
f
X
T
y
W´
owczas
e
y
t
= a
2
+ (a
1
+ b
1
) t + (b
2
− b
1
) Q
t2
+ (b
3
− b
1
) Q
t3
+ (b
4
− b
1
) Q
t4
przy czym
c
=
a
2
a
1
+ b
1
(b
2
− b
1
)
(b
3
− b
1
)
(b
4
− b
1
)
jest realizacja estymatora
e
Γ.
Ponadto
S
2
e
=
T
n −
5
gdzie
= y −
e
y
jest estymatorem wariancji σ
2
sk ladnika losowego.
S
2
e
f
X
T
f
X
−1
jest estymatorem wariancji estymatora
e
Γ.
Prognozowanie w oparciu o addytywne modele
tendecji rozwojowej bazuje na zale˙zno´
sci:
Y
T
= a
2
T
+ (a
1
+ b
1
) + (b
2
− b
1
) Q
T 2
+ (b
3
− b
1
) Q
T 3
+ (b
4
− b
1
) Q
tT
kt´
ora mo˙zna r´
ownie˙z zapisa´
c
Y
T
= c
T
x
T
przy czym
x
T
=
T
1
Q
T 2
Q
T 3
Q
T 4
B lad prognozy okre´
slamy na podstawie wzoru:
S
(Y
T
) = S
e
1 + c
T
T
f
X
T
f
X
−1
c
T
1
2
6. Druga procedura wyznaczania parametr´
ow mod-
elu bazuje na metodzie najmniejszych kwadrat´
ow,
ale dla zadania z ograniczeniami.
Ograniczenie jest nastepujace:
d
T
γ
= 0
gdzie
d
=
0
0
1
1
1
1
Zadanie optymalizacji ma posta´
c:
min
γ
1
2
(y − Xγ)
T
(y − Xγ)
p. o. d
T
γ
= 0
A˙zeby rozwiaza´
c to zadanie nale˙zy rozwiaza´
c uk lad
r´
owna´
n:
"
X
T
X
d
d
T
0
# "
γ
λ
#
=
"
X
T
y
0
#
gdzie λ jest liczba reprezentujaca wsp´
o lczynnik
Lagrange’a.
Mo˙zna pokaza´
c, ˙ze γ bedaca rozwiazaniem tego
zadania okre´
slone jest zale˙zno´
scia:
γ
=
X
T
X
+ dd
T
−1
X
T
y
7. Przyk lad (J´
o˙zwiak Podg´
orski - Statystyka od pod-
staw): Dane dotyczace po low´
ow ryb podane sa w
tabeli:
Lata\Kwarta ly
I
II
III
IV
1987
8
11
16
10
1988
10
12
18
13
1989
12
15
19
12
1990
13
14
22
15
Korzystajac
z
pierwszej
metody
okre´
slania
wsp´
o lczynnik´
ow modelu addytywnego otrzymu-
jemy uk lad r´
owna´
n:
Y
t
=
e
γ
1
t
+
e
γ
2
+
e
γ
3
Q
t2
+
e
γ
4
Q
t3
+
e
γ
5
Q
t4
+ ε
t
,
t
= 1, ..., 16
Mamy:
y
=
8
11
16
...
22
15
,
f
X
=
1
1
0
0
0
2
1
1
0
0
3
1
0
1
0
...
... ... ... ...
15
1
0
1
0
16
1
0
0
1
W wyniku zastosowania metody najmniejszych
kwadrat´
ow otrzymujemy:
e
γ
=
0.3875
8.0375
1.8625
7.2250
0.5875
Ponadto
e
y
=
8.425
10.675
16.425
...
14.825
,
=
−0.425
0.325
−0.425
...
0.175
s
2
e
=
8.450
11
= 0.768182
Prognoza na kolejne dwa kwarta ly jest nastepu-
jaca:
Y
17
= 0.3875 × 17 + 8.0375 = 14.625
Y
18
= 0.3875 × 18 + 8.0375 + 1.8625 = 16.875
B ledy prognoz wynosza odpowiednio:
S
(Y
17
) = 0.876 (1 + 0.5625)
1
2
= 1.095
S
(Y
18
) = 0.876 (1 + 0.5625)
1
2
= 1.095
Stosujac druga metode okre´
slania parametr´
ow mod-
elu korzystamy bezpo´
srednio z modelu
Y
t
= α
2
t
+ α
1
+ β
1
Q
t1
+ β
2
Q
t2
+β
3
Q
t3
+ β
4
Q
t4
+ ε
t
W celu estymacji parametr´
ow rozwiazujemy uk lad
r´
owna´
n
1496 136 28 32 36 40 . 0
136
16
4
4
4
4
.
0
28
4
4
0
0
0
.
1
32
4
0
4
0
0
.
1
36
4
0
0
4
0
.
1
40
4
0
0
0
4
.
1
.
.
.
.
.
.
.
.
0
0
1
1
1
1
.
0
α
2
α
1
β
1
β
2
β
3
.
λ
=
2016
220
43
52
75
.
0
Macierz
X
T
X
+ dd
T
=
1496 136 28 32 36 40
136
16
4
4
4
4
28
4
5
1
1
1
32
4
1
5
1
1
36
4
1
1
5
1
40
4
1
1
1
5
X
T
X
+ dd
T
−1
=
.
0031
−.0026
.
0047
−.0026
.
3508
−.1023
.
0047
−.1023
.
2570
.
0016
−.0758
.
0023
−.0016 −.0492 −.0023
−.0047 −.0227 −.0070
→
→
.
0016
−.0016
−.0047
−..0758 −..0492 −.0027
.
0023
−.0023
−.0070
.
2508
−.0008
−.0023
−.0008
.
2508
.
0023
−.0023
.
0023
.
02570
X
T
y
=
2016
220
43
52
75
50
Czyli realizacja γ wynosi
0.3875
10.4563
−2.4188
−0.5563
4.8063
−1.8313
i zgadza sie z warto´
sciami okre´
slonymi poprzednia
metoda.