Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
===============================================================================
I. Rachunek prawdopodobieństwa
--------------------------------------------------------------------------------------------------------------------------------------
1) Zdarzenia losowe
Pojęcia pierwotne:
Zdarzenie elementarne É każdy możliwy wynik danego doÅ›wiadczenia.
PrzestrzeÅ„ zdarzeÅ„ elementarnych © zbiór wszystkich É.
Def.
Niech 2© oznacza zbiór wszystkich podzbiorów zbioru ©. NiepustÄ… klasÄ™ F ‚" 2&! nazywamy sigma
ciaÅ‚em (Ã-ciaÅ‚em lub Ã-algebrÄ…) jeżeli:
2
(1.1) A " F Ò! A = &! \ A " F
"
(1.2) A1, A2 ,...," F Ò! Ai " F
i=1
ParÄ™ (©, F) nawykamy przestrzeniÄ… mierzalnÄ… zaÅ› dowolny element A" F zdarzeniem losowym.
Własności: Oznaczenia:
zdarzenie niemożliwe
© zdarzenie pewne
(1.3) " F,&! " F
A, B " F i A )" B = to A i B zdarzenia rozłączne
(1.4) A, B " F Ò! A \ B " F
A1, A2 ,..., An " F i i `" j Ai )" Aj = to zdarzenia A1,& ,An parami
"
(1.5) A1, A2 ,...," F Ò! Ai " F wykluczajÄ… siÄ™
i=1
A ‚" B zdarzenie A pociÄ…ga zdarzenie B
" A zdarzenie É sprzyja zdarzeniu A
Zbiór przeliczalny to zbiór skończony lub równoliczny ze zbiorem liczb naturalnych.
Uwaga:
(1.6) Jeżeli © jest zbiorem przeliczalnym to F=2©, czyli dowolny podzbiór zbioru © jest zdarzeniem
losowym.
(1.7) Jeżeli © jest zbiorem nieprzeliczalnym, to nie każdy jego podzbiór jest zdarzeniem losowym.
--------------------------------------------------------------------------------------------------------------------------------------
2) Definicja prawdopodobieństwa (aksjomatyczna, zaproponowana przez Kołmogorowa w 1931 roku)
Niech (©, F) bÄ™dzie przestrzeniÄ… mierzalnÄ…. PrawdopodobieÅ„stwem nazywamy dowolnÄ… funkcjÄ™
P : F R taką, że:
(2.1) P(A) e" 0
(2.2) P(&!) = 1
" "
ëÅ‚ öÅ‚
(2.3) PìÅ‚ Ai ÷Å‚ = ) dla dowolnego ciÄ…gu zdarzeÅ„ A1, A2 ,..., parami wykluczajÄ…cych siÄ™
"P(Ai
ìÅ‚ ÷Å‚
íÅ‚ i=1 Å‚Å‚ i=1
Własności:
2
(2.4) P(A ) = 1- P(A)
(2.5) P(A *" B) = P(A) + P(B) - P(A )" B)
Przygotował: Tomasz Hatake_KAKASHI Kotwis 1
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
n
(2.6)
P(A1 *" A2 *"...*" An)= ) - (Ai )+ (Ai )+...
"P(Ai "P )" Ai "P )" Ai )" Ai + (-1)n+1P(A1 )" A2 )"...)" An)
1 2 1 2 3
i =1 1d"i1
(2.7) P(A) d" 1
(2.8) A ‚" B Ò! P(A) d" P(B)
(2.9) A ‚" B Ò! P(B \ A) = P(B) - P(A)
(A) ©={É1, É2, & , Én} F=2©
Twierdzenie
Jeżeli w przestrzeni ©={É1, É2, & , Én} zostaÅ‚y okreÅ›lone prawdopodobieÅ„stwa zdarzeÅ„ elementarnych
P({É1})=P1, & , P({Én})=Pn tak, że: pi e" 0 , i "{1,2,...,n} oraz p1+p2+& +pn=1 to prawdopodobieÅ„stwo
dowolnego zdarzenia A = { , ,..., } jest równe P(A) = pi + pi + ... + pi .
i1 i2 ik
1 2 k
Wniosek (klasyczna definicja La Place`a z 1812 roku):
Jeżeli ©={É1, É2, & , Én} i prawdopodobieÅ„stwa zdarzeÅ„ elementarnych sÄ… jednakowe
1
P({ }) = P({ }) = to prawdopodobieństwo dowolnego zdarzenia A składające się z k zdarzeń
1 n
n
k A
elementarnych i wynosi: P(A) = =
n
&!
(B) ©={É1, É2, & } F=2©
Twierdzenie
Jeżeli w © okreÅ›lono prawdopodobieÅ„stwo zdarzeÅ„ elementarnych P({É1})=P1, P({É2})=P2 tak, że
"
pi e" 0 , i "{1,2,...} oraz pi = 1 to prawdopodobieństwo dowolnego zdarzenia A = { , ,...} wynosi
" i1 i2
i=1
P(A) = pi + pi + ...
1 2
(C) © nieprzeliczalny (prawdopodobieÅ„stwo geometryczne)
&! ‚" Rn F = B(R) = {A " B(Rn): A" &!}
Def.
m(A)
Prawdopodobieństwo dowolnego zdarzenia A" F wyznaczamy następująco: P(A) = gdzie m
m(&!)
jest miarą Lebesque`a w: R długość
R2 pole
R3 objętość
Uwaga
Prawdopodobieństwo geometryczne jest miarą bezatomową, tzn. " R P({ }) = 0
Koniec wykładu 01
Przygotował: Tomasz Hatake_KAKASHI Kotwis 2
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
--------------------------------------------------------------------------------------------------------------------------------------
3) Zmienne losowe
Def.
Dana jest przestrzeń probabilistyczna (&!, F, P). Zmienną losową nazywamy dowolną funkcję
X : &! R taką, że:
(3.1) { " &! : X ( ) " B}" F
B"B( R)
Uwaga:
(a) warunek (3.1) jest równoważny warunkowi:
(3.2) { " &! : X ( ) < x}" F
x"r
(b) Jeżeli &! jest przeliczalny to zdarzeniem jest każdy podzbiór &! czyli dowolna funkcja X : &! R
będzie zmienną losową.
Zmienne losowe oznaczamy X ,Y , Z , ich wartości (realizację) x, y, z.
Oznaczenia:
P({ " &! : X ( ) " B})= P(X " B) B " B(R)
P({ " &! : X ( ) < x})= P(X < x) x " R
P({ " &! : X ( ) = x0})= P(X = x0) x0 " R
P({ " &! : a d" X ( ) < b})= P(a d" X < b) a,b " R, a < b
Def.
Dystrybuantą zmiennej losowej X określonej na przestrzeni probabilistycznej (&!, F, P) nazywamy funkcję
FX : R R określoną wzorem:
(3.3) FX (x) = P(X < x) dla dowolnego x " R
Własności:
(3.4) 0 d" F(x) d" 1
(3.5) lim F(x) = 0 lim F(x) = 1
x-" x+"
(3.6) F jest niemalejÄ…ca tzn. dla x < y Ò! F(x) d" F( y)
(3.7) F jest (co najmniej) lewostronnie ciągła tzn. lim F(x) = F(x0 )
-
xx0
x0"R
(3.8) P(a d" X < b) = F(b) - F(a)
P(a d" X < b)= P(X < b)- P(X < a)
(- ",b)\ (- ", a) a"< a,b)
(3.9) P(X = x0) = lim F(x) - F(x0)
+
xx0
Wnioski:
" z wÅ‚asnoÅ›ci (3.9) wynika że funkcja F jest ciÄ…gÅ‚a w x0 Ô! gdy P(X = x0 ) = 0 ;
" funkcja F ma skok (nie jest ciÄ…gÅ‚a) w punkcie x0 Ô! gdy P(X = x0 ) > 0 .
Przygotował: Tomasz Hatake_KAKASHI Kotwis 3
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
--------------------------------------------------------------------------------------------------------------------------------------
4) Typy zmiennych
Def.
Zmienna losowa X , określona na przestrzeni probabilistycznej (&!, F, P) jest typu skokowego jeżeli istnieje
przeliczalny zbiór jej wartości s = {x1, x2 , x3,...}.
(4.1) P(X = xi ) = pi > 0 i "{1,2,3...} oraz pi = 1
"
i
Liczby x1,x2,x3& nazywamy punktami skokowymi, zaÅ› p1,p2,p3& skokami.
Własności:
(4.2) P(X " B)= pi
B"B( R) "
{i:xi "B}
(4.3) F(x)= pi
x"R "
{i:xi < x}
(4.4) Ponieważ pi = P(X = xi)> 0 to F ma skok w punkcie xi o wartości pi.
Def.
Zmienna losowa X , określona na przestrzeni probabilistycznej (&!, F, P) jest typu ciągłego jeżeli
dystrybuanta tej zmiennej ma postać:
x
(4.5) F(x) = f (t)dt dla dowolnego x " R , gdzie f jest nieujemną funkcją całkowitą taką, że:
+"
-"
+"
(4.6) f (t)dt = 1 funkcję f nazywamy gęstością prawdopodobieństwa zmiennej losowej X
+"
-"
Własności:
Dla zmiennej losowej X typu ciągłego zachodzą:
(4.7) F jest ciągła w R. Nie każda funkcja ciągła da się przedstawić w postaci (4.5).
2
(4.8) Jeśli f jest ciągła w punkcie x, to F jest różniczkowalna i F (x) = f (x) .
(4.9) P(X = x0 ) = 0
b
(4.10) P(a d" X < b) = P(a < X d" b) = P(a d" X d" b) = P(a < X < b) = f (t)dt ogólnie: P(X " B) = f (t)dt
+" +"
a B
x
F (x) = P( X < x) = f (t)dt
+"
-"
b
P(a < X < b) = f (t)dt
+"
a
Koniec wykładu 02
Przygotował: Tomasz Hatake_KAKASHI Kotwis 4
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
--------------------------------------------------------------------------------------------------------------------------------------
5) Charakterystyki liczbowe zmiennej losowej
Def.
Wartością oczekiwaną (przeciętną/średnią) zmiennej losowej X określonej na przestrzeni
probabilistycznej (&!, F, P) nazywamy liczbÄ™ zdefiniowanÄ… wzorem:
Å„Å‚
xi pi gdy X jest typu skokowego
"
ôÅ‚x "S X
ôÅ‚ i
(5.1) E X = "
òÅ‚
ôÅ‚ xf (x)dx gdy X jest typu ciaglego
+"
ôÅ‚
ół -"
pod warunkiem, że szereg i całka po prawej stronie są bezwzględnie zbieżne, czyli xi pi < " i
"
xi "S X
"
x f (x)dx < " .
+"
-"
Własności:
(5.2) Ec = c c " R
(5.3) E(aX ) = aE X a " R
(5.4) E(b + X ) = b + E X b " R
(5.5) E(X - E X ) = 0
(5.6) E(X + Y ) = E X + EY
(5.7) E(XY ) = E X EY wtedy gdy X , Y są niezależne, czyli dla dowolnych x, y " R niezależne są
zdarzenia {X < x} i {Y < y}.
Uwaga:
Å„Å‚
xik pi gdy X jest typu skokowego
"
ôÅ‚x "S X
k
ôÅ‚ i
E X = "
òÅ‚
ôÅ‚ xk f (x)dx gdy X jest typu ciaglego
+"
ôÅ‚
ół -"
Def.
WariancjÄ… zmiennej losowej X nazywamy liczbÄ™:
(5.8) D2 X = E(X - E X )2
Własności:
2
(5.9) D2 X = E X - (E X )2
(5.10) D2 X e" 0
(5.11) D2c = 0
(5.12) D2(aX ) = a2D2 X
(5.13) D2(X + b) = D2 X
(5.14) D2(X + Y ) = D2 X + D2Y wtedy gdy X , Y są niezależne, czyli dla dowolnych x, y " R niezależne
sÄ… zdarzenia {X < x} i {Y < y}.
Przygotował: Tomasz Hatake_KAKASHI Kotwis 5
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Def.
Odchyleniem standardowym zmiennej losowej X nazywamy liczbÄ™:
(5.15) = D2 X
Uwaga:
Wartości oczekiwane nazywamy odpowiednio k-tym elementem: (zmiennej losowej X )
zwykłym absolutnym centralnym
k
k
E X E(X - E X )k =
E X = mk
k
Inne wybrane charakterystyki liczbowe zmiennej losowej:
Położenie
" kwantyl rzędu p każda liczba X , p "(0,1) taka, że:
p
F(X ) d" p d" lim F(x)
p
+
xX
p
pi d" p d" pi dla zmiennej skokowej
" "
xip p
F(X ) = p
p
1
" mediana wartość środkowa kwantyl rzędu czyli X :
1
2
2
1
F(X ) d" d" lim F(x)
1
+
2
xX
1
2
2
Rozproszenie
" odchylenie przeciętne od wartości oczekiwanej:
d = E X - E X
" współczynnik zmienności:
V = E X `" 0
E X
Asymetria
" współczynnik skośności (asymetria):
3
E(X - E X) 3
= =
3 3
Przygotował: Tomasz Hatake_KAKASHI Kotwis 6
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Asymetria lewostronna( < 0) Asymetria prawostronna( > 0)
Skupienie
" współczynnik skupienia (kurtoza):
4
E(X - E X) 4
K = =
4 4
słabo skupiona skupiona
E X = 0 = E X
1 2
D2 X = D2 X
1 2
k2 > k1
Maksimum
" moda (dominat):
o dla zmiennej skokowej jest to punkt skokowy xk "{min xi;max xi} ale którego pk jest maksimum
absolutnym;
Moda (x2) Nie moda
Np. (w tym wypadku 1 moda)
xi 0 1 2
pi 1 1 1
4 2 4
Przygotował: Tomasz Hatake_KAKASHI Kotwis 7
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
o dla zmiennej ciągłej jest to odcięta maksimum absolutnego funkcji gęstości w punkcie ciągłości.
Wybrane zmienne typu skokowego:
(1) Rozkład jednopunktowy dla ustalonego a" R
P(X = a)= 1
xi a
pi 1
0 x d" a
Å„Å‚
F(x) =
òÅ‚1 x > a
ół
E X = a1 = a
2
E X = a21= a2
2
D2 X = E X - (E X )2 = a2 - a2 = 0
(2) Rozkład 0-1 z parametrem p"(0,1)
P(X = 1)= p P(X = 0)= 1- p = q
xi 0 1
pi q p
0 x d" 0
Å„Å‚
ôÅ‚q 0 < x d"1
F(x) =
òÅ‚
ôÅ‚
1 x >1
ół
E X = 0q +1p = p
2
E X = 02 q +12 p = p
2
D2 X = E X - (E X )2 = p - p2 = p(1- p) = pq
Realizacja:
gdy w n-tym doświadczeniu sukces
1
Å„Å‚
X =
òÅ‚0
n
ół
gdy w n-tym doświadczeniu porażka
dla dowolnego n" N , X ma rozkład 0-1.
n
(3) Rozkład dwumianowy z parametrami n" N , p"(0,1)
n
ëÅ‚ öÅ‚
ìÅ‚ ÷Å‚
P(X = k)= pkqn-k k "{0,1,2,...,n} q =1- p
ìÅ‚k ÷Å‚
íÅ‚ Å‚Å‚
n
n
n
ìÅ‚ ÷Å‚ rozkÅ‚ad jest dobrze okreÅ›lony
"ëÅ‚k öÅ‚ pkqn-k = (p + q) = (1)n =1
ìÅ‚ ÷Å‚
k =0
íÅ‚ Å‚Å‚
E X = np
D2 X = npq
Przygotował: Tomasz Hatake_KAKASHI Kotwis 8
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Realizacja:
X liczba możliwych sukcesów w n doświadczeniach w schemacie Bernoulliego.
(4) Rozkład geometryczny z parametrem p"(0,1)
P(X = k)= qk -1 p k "{1,2,3,...} q =1- p
" "
1
k -1 k-1
"q p = p"q = p1- q = p 1 = 1
p
k=1 k =1
1
E X =
p
q
D2 X =
p2
Realizacja:
X liczba doświadczeń do momentu pierwszego sukcesu.
(5) Rozkład Poissona z parametrem > 0
k
-
k
"
P(X = k )= e
k "{0,1,2,...}
f (0)
k! f (x) = xk
"
k!
k k k=0
" "
-
"
= e- e =1
1
"e k! = e- "
k! ex = xk
k=0 k=0
"
k!
k=0
E X =
D2 X =
Uwaga:
Ciąg rozkładów dwumianowych jest zbieżny do rozkładu Poissona. W praktycznych
zastosowaniach dla: n e" 50, np d"10, p d" 0,1
k
n
ëÅ‚ öÅ‚
ìÅ‚ ÷Å‚ pkqn-k H" e- = np
ìÅ‚k ÷Å‚
k!
íÅ‚ Å‚Å‚
Realizacja:
X liczba sukcesów w rozkładzie dwumianowym przy powyższych założeniach.
Koniec wykładu 03
Wybrane zmienne typu ciągłego:
(1) Rozkład równomierny (jednostajny/prostokątny) na przedziale
1
Å„Å‚
x " a,b
ôÅ‚
f (x) =
òÅ‚b - a
ôÅ‚
ół0 x " a,b
Dla x d" a F(x)=0
x
x
1 1 x - a
Dla a d" x d" b F(x)= dt = t =
+"
b - a b - a b - a
a
a
Dla x>b F(x)=1
Przygotował: Tomasz Hatake_KAKASHI Kotwis 9
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Å„Å‚ 0 dla x d" a
ôÅ‚ - a
x
F(x) = dla a < x d" b
òÅ‚
-
ôÅ‚b1 a dla x > b
ół
b
+" b
1 1 1 1 1 1 1 1 b + a
îÅ‚ Å‚Å‚ ëÅ‚ öÅ‚
E X = xf (x)dx = x dx = (b
+" +"
ïÅ‚2 x2 śła = b - a ìÅ‚ 2 b2 - 2 a2 ÷Å‚ = 2 b - a - a)(b + a)= 2
b - a b - a
ðÅ‚ ûÅ‚ íÅ‚ Å‚Å‚
-" a
+" b
2
1 1 1 b 1 1 1 1 b2 + ab + a2
E X = x2 f (x)dx = x2 dx = [x3] = (b3 - a3)= (b - a)(b2 + ab + a2)=
a
+" +"
b - a b - a 3 3 b - a 3 b - a 3
-" a
2 2
b2 + ab + a2 (b + a)2 4b2 + 4ab + 4a2 - 3b2 - 6ab - 3a2 b2 - 2ab + a2 (b - a)2
D2 X = E X -(E X) = - = = =
3 4 12 12 12
Realizacja:
X czas oczekiwania pasażera na autobus (0-10 min).
(2) Rozkład wykładniczy z parametrem > 0
0 dla x < 0
Å„Å‚
f (x) =
òÅ‚ e- x dla x e" 0
ół
- x = t
+"
+" -" +"
+" +"
1 1
t t x x 0
f (x) = e- xdx = - dx = dt =
ìÅ‚ ÷Å‚ ìÅ‚ ÷Å‚
+" +" +"e ëÅ‚- öÅ‚dt = ëÅ‚- öÅ‚e = - et = - e- = lim (-e- ) + e- =
0 0
x+"
1 íÅ‚ Å‚Å‚ íÅ‚ Å‚Å‚
-" 0 0 0
dx = - dt
1
= - lim +1 = 1
x+"
e x
x d" 0 Ò! F(x) = 0
x
x
x > 0 Ò! F(x) = e- tdt = [- e- t] = -e- t +1 =1- e- t
0
+"
0
Przygotował: Tomasz Hatake_KAKASHI Kotwis 10
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
0 x d" 0
Å„Å‚
F(x) =
òÅ‚1- e- x x > 0
ół
1
E X =
1
D2 X =2
Realizacja:
X czas bezawaryjnej pracy badanego elementu, wówczas intensywność awarii,
P(X e" t)= e- t niezawodność elementu.
(3a) Rozkład normalny z parametrami m" R, > 0
ëÅ‚ - m)2 ÷Å‚
1 (x öÅ‚
ìÅ‚
f (x) = eìÅ‚-
2
2 íÅ‚ 2 ÷Å‚
Å‚Å‚
Krzywa Gaussa
(3b) Rozkład normalny z parametrami m i oznaczamy N(m, ).
E X = m
D2 X =2
Realizacja:
X oznacza:
" wzrost lub wagę osobników jednorodnych populacji ludzkich lub zwierzęcych;
" plon jednakowych poletek doświadczalnych;
" losowe błędy pomiarów.
Rozkład normalny dla, którego m = 0 i = 1 nazywamy (normalnym) rozkładem standaryzowanym.
ëÅ‚ öÅ‚
1 x2
ìÅ‚
Funkcja gÄ™stoÅ›ci o postaci f (x) = eìÅ‚- ÷Å‚ jest symetryczna wzglÄ™dem osi OY, stÄ…d
÷Å‚
2
2
íÅ‚ Å‚Å‚
wynika własności dystrybuanty tego rozkładu oznaczonej literą Ś : Ś(-x) =1- Ś(x) .
Przygotował: Tomasz Hatake_KAKASHI Kotwis 11
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Wartości dystrybuanty tego rozkładu można znalezć w tablicach statystycznych.
--------------------------------------------------------------------------------------------------------------------------------------
6) Standaryzacja zmiennej losowej
Def.
Zmienną losową X , taką że E X = 0 i D2 X =1 nazywamy zmienną standaryzowaną.
Własności:
2
Niech X będzie zmienną, taką że m = E X < " oraz = D2 X > 0 .
Zmienna losowa:
X - m
(6.1) U = jest zmiennÄ… standaryzowanÄ….
ëÅ‚ - m 1 1 1
öÅ‚
X
ìÅ‚ ÷Å‚
E(U ) = EìÅ‚ ÷Å‚ = E(X - m)= (E X - m)= (m - m)= 0
íÅ‚ Å‚Å‚
ëÅ‚ - m 1 1 1
öÅ‚
X
2
ìÅ‚ ÷Å‚
D2U = D2ìÅ‚ ÷Å‚ = D2(X - m)= D2 X = = 1
2 2 2
íÅ‚ Å‚Å‚
ZmiennÄ… losowÄ… U nawyzywamy standaryzacjÄ… zmiennej losowej X .
Reguła trzech sigm
Prawie 100% wartości zmiennej losowej o rozkładzie N(m, ) znajduje się w przedziale (m - 3 , m + 3 ).
Koniec wykładu 04
--------------------------------------------------------------------------------------------------------------------------------------
7) Wektory losowe
Def.
n-wymiarowym wektorem losowym (n-wymiarową zmienną losową) określoną na przestrzeni
probabilistycznej (&!, F, P) nazywamy odwzorowanie X : &! Rn , czyli takie, że:
{ "&! : X( )< x}" F
x"Rn
Uwaga:
X : X ( ) = (X ( ), X ( ),..., X ( ))
1 2 n
X : &! R
n
{ "&! : X( )< x}={ "&! :(X ( ), X ( ),..., X ( ))< (x1,...,xn )}= { "&! : X ( )< xi}
1 2 n i
i=1
Przygotował: Tomasz Hatake_KAKASHI Kotwis 12
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Twierdzenie
Dowolne odwzorowanie X : &! Rn określone wzorem X ( ) = (X ( ), X ( ),..., X ( )) dla " &! jest
1 2 n
wektorem losowym Ô! X jest zmienna losowÄ…, i "{1,2,...,n}.
i
Oznaczenia:
P({ "&! : X ( )< x1, X ( )< x2,..., X ( )< xn,})a" P(X < x1, X < x2,..., X < xn,)
1 2 n 1 2 n
P({ "&! : X ( )= x1, X ( ) = x2,..., X ( ) = xn,})a" P(X = x1, X = x2,..., X = xn,)
1 2 n 1 2 n
Def.
DystrybuantÄ… wektora losowego X = (X , X ,..., X ) (dystrybuantÄ… Å‚Ä…cznÄ… zmiennych losowych
1 2 n
X , X ,..., X ) nazywamy funkcję F : Rn R określoną wzorem:
1 2 n
(7.2) FX (x1,..., xn)= P(X < x1,..., X < xn) dla dowolnych (x1, x2,..., xn)" Rn
1 n
Dwuwymiarowa zmienna losowa (n=2)
Dystrybuanta wektora losowego (X ,Y) określona wzorem FX (x, y)= P(X < x,Y < y) dla (x, y)" Rn
ma następujące własności:
(7.3) F jest nie malejąca ze względu na każdą ze zmiennych
x1 < x2, y " R Ò! FX (x1, y)d" FX (x2, y)
x " R, y1 < y2 Ò! FX (x, y1)d" FX (x, y2)
(7.4) F jest lewostronnie ciągła ze względu na każdą ze zmiennych
lim F(x, y0)= F(x0, y0)= lim F(x0, y)
(x0 , y0 )"R2 xx0 -
-
yy0
(7.5) lim F(x, y)= 0 lim F(x, y)=1
x-" x+"
y+"
lim F(x, y)= 0
y-"
(7.6) FX (x)= lim F(x, y)
y+"
FY (y)= lim F(x, y)
x+"
Def.
Wektor losowy (X ,Y) jest typu skokowego jeżeli istnieje przeliczalny zbiór wartości (xi, yj) takich,
że:
"
(7.7) P(X = xi,Y = yj)= pij > 0 i, j "{1,2,3...} oraz pij =1
"
i, j=1
Twierdzenie
Jeżeli (X ,Y) jest wektorem losowym typu skokowego określonym przez (7.7), to zmienne brzegowe
X ,Y są również typu skokowego o rozkładach:
Przygotował: Tomasz Hatake_KAKASHI Kotwis 13
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
(7.8) P(X = xi)= pij i "{1,2,3...}
"
j
P(Y = yj)= pij j "{1,2,3...}
"
i
Def.
Wektor losowy (X ,Y) jest typu ciągłego, jeżeli jego dystrybuanta jest postaci:
x y
îÅ‚ Å‚Å‚
(7.9) F(x, y)= f (u,v)dvśłdu dla (x, y)" R2 gdzie f jest funkcją nieujemną całkowalną, taką, że
+"ïÅ‚ +"
-" ûÅ‚
ðÅ‚-"
+"
îÅ‚+" Å‚Å‚
(7.10) f (x, y)dyśłdx = 1 gdzie: f jest funkcją gęstości wektora losowego (X ,Y)
ïÅ‚
+" +"
-"ðÅ‚-" ûÅ‚
Własności:
(7.11)
((X f (x, y)dydx
B"B(R2)P ,Y)" B)= +"+"
B
b
îÅ‚d Å‚Å‚
(7.11)` P(a d" X d" b;c d" Y d" d)= f (x, y)dyśłdx
ïÅ‚
+"ðÅ‚+"
a c ûÅ‚
2
F(x, y)
(7.12) W punktach ciągłości f zachodzi równość: = f (x, y)
x y
Twierdzenie
Jeżeli (X ,Y) jest wektorem losowym typu ciągłego o funkcji gęstości f to zmienne brzegowe X ,Y są
typu ciągłego o gęstościach określonych następująco:
+"
(7.13) fX (x)= f (x, y)dy x " R
+"
-"
+"
fY (y)= f (x, y)dx y " R
+"
-"
--------------------------------------------------------------------------------------------------------------------------------------
8) Niezależność zmiennych losowych
Def.
Zmienne losowe X , X ,..., X są niezależne, jeżeli dla dowolnego (x1, x2,..., xn)" Rn niezależne są
1 2 n
zdarzenia:
{ "&! : X ( )< x1},...,{ "&! : X ( )< xn}
1 n
tzn.
(8.1)
P(X < x1,..., X < xn)= P(X x1)Å"...Å" P(X xn)
n 1 n
(x1,...,xn )"Rn 1
Wnioski:
(8.2) X ,Y sÄ… niezależne Ô! F(x, y)= FX (x)Å" FY (y)
(8.3) X ,Y typu skokowego sÄ… niezależne (dla dowolnego i, j) Ô! P(X = xi,Y = y )= P(X = xi)Å" P(Y = yj)
j
(8.4) X ,Y typu ciÄ…gÅ‚ego sÄ… nie zależne (dla dowolnego (x, y)" R2 ) Ô! f (x, y)= fX (x)Å" fY (y)
Koniec wykładu 05
Przygotował: Tomasz Hatake_KAKASHI Kotwis 14
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
--------------------------------------------------------------------------------------------------------------------------------------
9) Charakterystyki liczbowe zmiennej losowej dwu wymiarowej
Def.
KowariancjÄ… zmiennych X ,Y nazywamy liczbÄ™:
(9.1) cov(X ,Y)= E((X - E X)(Y - EY)) o ile ona istnieje.
Własności:
Å„Å‚ yj pij skok.
""xi
ôÅ‚ i j
ôÅ‚+"
(9.2) cov(X ,Y)= E(XY)- E X EY przy czym E(XY)=
òÅ‚
îÅ‚+" Å‚Å‚
ôÅ‚
ïÅ‚
+" +"xyf (x, y)dyśłdx ciag.
ôÅ‚-" ðÅ‚-"
ûÅ‚
ół
(9.3) cov(X , X)= D2 X
(9.4) cov(X ,Y)= cov(Y, X)
(9.5) Jeżeli X ,Y są NIEzależne to cov(X ,Y)= 0
Jeżeli X ,Y są zmiennymi losowymi i cov(X ,Y) istnieje to:
(9.6) D2(X Ä… Y)= D2 X + D2Y Ä… 2cov(X ,Y)
Wniosek:
Jeśli X ,Y są niezależne to: D2(X ą Y)= D2 X + D2Y
Def.
Jeżeli X ,Y są zmiennymi losowymi i istnieje E X , EY, D2 X , D2Y ,cov(X ,Y) oraz D2 X > 0, D2Y > 0 to
liczbÄ™:
cov(X ,Y)
(X ,Y)= nazywamy współczynnikiem korelacji zmiennych losowych X ,Y .
D2 X Å" D2Y
Własności:
(9.8) (X ,Y) d" 1
(9.9) Jeżeli X ,Y są niezależne to (X ,Y)= 0
(9.10) Jeżeli (X ,Y)`" 0 to X ,Y są zależne
(9.11) Jeżeli (X ,Y) = 1 to dla a `" 0,b " R zachodzi równość P(Y = aX + b)= 1
Z własności (9.11) wynika, ze współczynnik korelacji można traktować jako miarę zależności
liniowych X ,Y .
===============================================================================
II. Statystyka matematyczna
--------------------------------------------------------------------------------------------------------------------------------------
1) Pojęcia wstępne
Statystyka jest to nauka zajmujÄ…ca siÄ™ analizowaniem i opisywaniem zjawisk masowych.
Statystyka opisowa zajmuje siÄ™ gromadzeniem, prezentacjÄ… i opisem informacji.
Przygotował: Tomasz Hatake_KAKASHI Kotwis 15
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Statystyka matematyczna głównym jej celem jest wnioskowanie o całej zbiorowości na podstawie
jej podzbioru za pomocą metod rachunku prawdopodobieństwa.
Opis statystyczny jest badaniem wystarczającym jeżeli badana jest cała zbiorowość statystyczna.
Zbiorowość (populacja generalna) zbiór elementów podlegających badaniu ze względu na jedną lub
więcej cech, dla którego istnieje przynajmniej jedna własność wspólna kwalifikująca elementy do tego zbioru
oraz przynajmniej jedna cecha (własność) rozróżniająca elementy tego zbioru.
Jednostka statystyczna element zbiorowości.
Rodzaje cech:
" mierzalne o charakterze ilościowym;
" niemierzalne o charakterze jakościowym.
Rangowanie przypisywanie wartości cechy liczb (można zmienić na cechy mierzalne). Podrodzaje:
" porządkowe wartości da się uporządkować (np. jakość gleb);
" nominalne wartości nie da się uporządkować (np. płeć).
Badania statystyczne mogą być:
" pełne (wyczerpujące, całkowite) gdy badaniu podlegają wszystkie jednostki populacji generalnej;
" częściowe badaniu podlega skończony podzbiór populacji generalnej zwany populacją próbną lub
próbą statystyczną. Populacja próbna powinna stanowić dobrą reprezentację populacji generalnej,
tzn. zróżnicowanie wartości cechy w populacji generalnej i próbnej powinno być podobne. Osiągnie eis
to jeżeli elementy próbki będą losowane z populacji.
Rodzaje losowań:
" zależne (bez zwracania, ze zwracaniem);
" niezależne (bez zwracania, ze zwracaniem);
" indywidualne (po jednym elemencie, lub zespołowe);
" nieograniczone (z całej populacji);
" ograniczone [warstwowe] (z części populacji);
" jednostopniowe;
" wielostopniowe.
Próba losowa prosta gdy losowanie elementów populacji próbnej jest indywidualne, niezależne i
nieograniczone.
Koniec wykładu 06
--------------------------------------------------------------------------------------------------------------------------------------
2) Wstępna analiza wyników obserwacji
Szeregiem statystycznym (wyliczającym, szczegółowym) nazywamy próbkę wartości cechy badanej w
populacji zapasanej w kolejności losowania.
Szereg statystyczny prosty szereg statystyczny w którym wartości cechy uporządkowano niemalejąco
lub nierosnÄ…co.
Dla cechy środkowej (wartości całkowite lub mało zróżnicowane) określa się jej rozkład przez szereg
rozdzielczy punktowy, który tworzymy przyporządkowując k różnym wartościom cechy liczby ich wystąpień
(xi ni) lub częstości względne:
Przygotował: Tomasz Hatake_KAKASHI Kotwis 16
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
k
ni
(2.1) Vi = gdzie n = jest liczebnością próbki
"ni
n
i =1
Szereg rozdzielczy punktowy:
gdzie:
xi ni Vi
V odpowiada prawdopodobieństwu P
x1 n1 V1
. . .
x odpowiada zmiennej losowej X ,Y
. . .
. . .
xk nk Vk
n 1
Dystrybuantę empiryczną wyznaczamy za pomocą częstości skumulowanych Vski następujące:
Å„Å‚0
x d" x1
ôÅ‚
ôÅ‚V
F(x)= = xi < x d"xi +1
òÅ‚
ski "Vj
j d"i
ôÅ‚
ôÅ‚ 1 x > xk
ół
Wartość oczekiwana (średnia arytmetyczna) X w próbce wyznaczmy za pomocą wzorów:
n
1
(2.3) X = xi dla szeregu statystycznego
"
n
i=1
k
1
(2.4) X = xini dla szeregu rozdzielczego punktowego
"
n
i=1
2
Wariancje S w próbce wyznaczamy za pomocą wzorów:
n
2
1
2
(2.5) S = (xi - X ) dla szeregu statystycznego
"
n
i=1
k
2
1
2
(2.6) S = (xi - X) ni dla szeregu rozdzielczego punktowego
"
n
i=1
Odchylenie standardowe S = w próbce wyznaczmy za pomocą wzoru:
S = = S2
Przygotował: Tomasz Hatake_KAKASHI Kotwis 17
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Klasyczne parametry opisowe dla szeregu:
rozdzielczego punktowego rozdzielczego przedziałowego
Åšrednia arytmetyczna
k
o
1
X = ni
"xi
k
1
n
i =1
X = xini
"
o o
n xid + xig
i=1
gdzie: xi środek klasy i = xi =
2
Wariancja
2
k
k
o
2
1
1
2
2
S = (xi - X) ni
S = xi - X ni
" ìÅ‚ ÷Å‚
"ëÅ‚ öÅ‚
n
n
i=1 íÅ‚ Å‚Å‚
i=1
Odchylenie standardowe
2
S = = S S = = S2
Odchylenie przeciętne
k k
o
1 1
d1 = xi - X ni d1 = xi - X ni
" "
n n
i=1 i=1
Współczynnik zmienności
S S
" = " = Å"100%
X X
Współczynnik asymetrii
3
3
=
=
1
1
S3
S3
3
k
k
o
3
1
1
gdzie: = (xi - X ) ni
gdzie: = xi - X ni
3 " ìÅ‚ ÷Å‚
3 "ëÅ‚ öÅ‚
n
n
i =1 íÅ‚ Å‚Å‚
i=1
Współczynnik spłaszczenia (kurtoza)
4
4
K =
K =
4
4
S
S
4
k
k
o
4
1
1
gdzie: = (xi - X ) ni
gdzie: = xi - X ni
4 " ìÅ‚ ÷Å‚
4 "ëÅ‚ öÅ‚
n
n
i=1 íÅ‚ Å‚Å‚
i =1
Przygotował: Tomasz Hatake_KAKASHI Kotwis 18
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Pozycyjne parametry opisowe dla szeregu:
rozdzielczego punktowego rozdzielczego przedziałowego
Mediana (kwantyl rzÄ™du ½)
kwantyl xp rzędu p wyznaczamy następująco:
p - F(xpd)
xn+1 nnieparz.
Å„Å‚
ëÅ‚ öÅ‚
1 xp = xpd +
ìÅ‚ ÷Å‚ ôÅ‚ 2
FìÅ‚ x1 ÷Å‚ d" d" lim F(x)x1 = xme = xn + xn
ôÅ‚ F(xpg)- F(xpd)h
xx+ òÅ‚
2 1
íÅ‚ 2 Å‚Å‚ +1
2 2 ôÅ‚ 2 2
gdzie: xpd, xpg końce przedziału zawierającego
n parzys.
ôÅ‚
ół 2
kwantyl
h długość przedziału
Kwantyl dolny i górny Q1, Q3 (kwantyl rzÄ™du ź i ¾)
analogicznie do powyższego analogicznie do powyższego
Dominanta (moda)
nd - nd -1
xd = xdd + h
(nd - nd -1)+ (nd - nd +1)
gdzie: xdd lewy koniec przedziału dominanty
Nie istnieje
nd liczebność przedziału dominanty
nd-1 liczebność przedziału poprzedniego
nd+1 liczebność przedziału następnego
Rozstęp empiryczny
R = Xmax - Xmin R = Xmax - Xmin
Odchylenie ćwiartkowe
Q3 - Q1 Q3 - Q1
Q = Q =
2 2
Współczynnik asymetrii
ëÅ‚ öÅ‚ ëÅ‚ öÅ‚
ìÅ‚ - x1 ÷Å‚ - ìÅ‚ - x1 ÷Å‚
÷Å‚ ÷Å‚
(Q3 - xme)- (xme - Q1) x3 x1
ìÅ‚ ìÅ‚
=
2
íÅ‚ 4 2 Å‚Å‚ íÅ‚ 2 4 Å‚Å‚
Q
=
2
Q
Odchylenie przeciętne od mediany
k
1
d2 = xi - xme ni
"
n
i =1
Przygotował: Tomasz Hatake_KAKASHI Kotwis 19
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
(2.7) Etapy budowy szeregu rozdzielczego przedziałowego
1) Obliczamy rozstęp empiryczny
R = Xmax - Xmin
2) Ustalamy liczbÄ™ klas
1
k " n, n
2
3) Wyznaczamy długość klas
R
h H" (zaokrÄ…glam w gorÄ™)
k
4) Określamy granice przedziałów klasowych
x1d = xmin -
Lp xi ni
x1d = xmin
x1d , x1g
1 n1
(x2d , x2 g
2 n2
x1g = x2d = xmin + h
. . .
.
. . .
.
. . .
.
(xkd , xkg
k nk xkg = xmax
Koniec wykładu 07 (zawiera część wykładu 08)
--------------------------------------------------------------------------------------------------------------------------------------
3) Podstawowe pojęcia statystyki matematycznej
Dowolne n-elementowe próbki pobrane z populacji są na ogół różne. Wygodnie jest zatem traktować
ciÄ…g liczbowy (x1, x2,..., xn) jako realizacjÄ™ ciÄ…gu liczb losowych (X , X ,..., X ).
1 2 n
Def.
Niech X będzie zmienna losową określoną na przestrzeni probabilistycznej (&!, F, P). Ciąg zmiennych
losowych (X , X ,..., X ) nazywamy n-elementową statystyczną próbą prostą dla zmiennej losowej X
1 2 n
jeżeli:
(3.1) zmienne X , X ,..., X są niezależne
1 2 n
(3.2) rozkład X gdzie i "{1,2,...,n} jest taki sam jak rozkład zmiennej losowej X
i
Ciąg liczbowy dowolnych wartości (x1, x2,..., xn) zmiennej losowej X nazywamy realizacją próby
losowej (X , X ,..., X ) lub statystyczną próbą.
1 2 n
Def.
Niech (X , X ,..., X ) będzie próbą losową prostą. Statystyką nazywamy dowolną funkcję borelowską
1 2 n
tej próby, tj. zmienną losową Un = g(X , X ,..., X ), gdzie gi = Rn R
1 2 n
{x " Rn : g(x)" B} SPRAWDZIĆ problemy z odczytaniem
B"B(R)
Uwaga:
Rozkład statystyki zależy od liczebności próby losowej, od rozkładu zmiennych losowych
X , X ,..., X i od postaci funkcji g.
1 2 n
Przygotował: Tomasz Hatake_KAKASHI Kotwis 20
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Wnioskowanie statystyczne o populacji generalnej na podstawie próby losowej prostej opiera się na
rozkładach pewnych statystyk.
Określenie
Jeżeli U1,U2,...,Un są niezależnymi zmiennymi losowymi o rozkładzie N(0,1) to statystyka:
2 2 2 2
(3.3) = U1 + U2 + ... +Un ma rozkład chi kwadrat z n stopniami swobody
m
Własności:
2
(3.4) E( )= n
m
2
(3.5) D2( )= 2n
m
(3.6) Dla dużych n rozkład chi kwadrat jest zbieżny do normalnego
2
- n
n
N(0,1)
2n
2
(3.7) W praktyce dla n e" 50 korzysta się z szybszej zbieżności statystyki 2 do rozkładu N( 2n -1;1)
n
2 2
P( d" (p))= p
n n
Określenie
2
Niech U będzie zmienną losową o rozkładzie N(0,1) zaś Z2 o rozkładzie z n stopniami swobody.
Jeżeli U, Z2 są niezależne, to statystyka:
U
(3.8) t = n ma rozkład studenta z n stopniami swobody
Z
Własności:
(3.9) E(t) = 0
n
(3.10) D2(t) = gdzie n>2
n - 2
(3.11) n " rozkład t dąży do N(0,1)
Koniec wykładu 08
Określenie
2 2 2
Jeżeli Z1 i Z2 są zmiennymi losowymi o rozkładzie z odpowiednio n1 i n2 stopniami swobody to
statystyka:
n2Z12
(3.12) F = ma rozkład Fishera-Snedecora z odpowiednio n1 i n2 stopniami swobody
2
n1Z2
Rozkład średniej arytmetycznej z prób
Twierdzenie
Niech X będzie zmienną losową o rozkładzie N(m, ) . Jeżeli X , X ,..., X jest próbą losową prostą
1 2 n
dla zmiennej losowej X to statystyka:
1 ëÅ‚ öÅ‚
(3.13) X = (X ,..., X ) ma rozkÅ‚ad normalny NìÅ‚m, ÷Å‚
1 n
n
n
íÅ‚ Å‚Å‚
Przygotował: Tomasz Hatake_KAKASHI Kotwis 21
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Wnioski:
(3.14) Wraz ze wzrostem liczebności próby maleje odchylenie standardowe średniej arytmetycznej.
(3.15) Rozkład średniej arytmetycznej zależy od odchylenia standardowego populacji, które zwykle nie jest
znane.
(3.16) Zmienna losowa
X - m
U = n ma rozkład N(0,1)
Twierdzenie
Jeżeli X , X ,..., X są niezależnymi zmiennymi losowymi o rozkładzie N(m, ) i
1 2 n
n
2
1 1
2
X = (X + ...+ X ) oraz S = (X - X ) to statystyka:
1 n " i
n n
i=1
X - m
(3.17) t = n -1 ma rozkład studenta o n-1 stopniach swobody
s
Rozkład wariancji z próby
n
2
1
2
S = (X - X )
" i
n
i=1
n
2
1 n
2
\ = (X - X ) = S2
" i
n -1 n -1
i=1
Jeśli znana jest wartość oczekiwana zmiennej losowej X w populacji E X = m to należy wariancje z
próby wyznaczyć następująco:
n
2
1
2 2
S* = (X - m) Rozkład statystyk S2, \2,S* są trudne do wyznaczenia.
" i
n
i=1
Twierdzenie
Jeżeli X , X ,..., X są niezależnymi zmiennymi losowymi o rozkładzie N(m, ) to statystyka:
1 2 n
nS2 (n -1)\2 2
(3.18) = = n-1 ma rozkład chi kwadrat z n-1 stopniami swobody
2 2
Wnioski:
ëÅ‚ öÅ‚
nS2 n n -1
2
ìÅ‚ ÷Å‚
(3.19) EìÅ‚ 2 ÷Å‚ = n -1Ò! E(S2)= n -1Ò! E(S2)=
2
n
íÅ‚ Å‚Å‚
n n n n -1
2 2
E(\2)= EëÅ‚ S2 öÅ‚ = E(S2)= =
ìÅ‚ ÷Å‚
n -1 n -1 n -1 n
íÅ‚ Å‚Å‚
ëÅ‚ öÅ‚
nS2 n2 2(n -1)
4
ìÅ‚ ÷Å‚
(3.20) D2ìÅ‚ 2 ÷Å‚ = 2(n -1)Ò! D2(S2)= 2(n -1)Ò! D2(S2)=
4
n2
íÅ‚ Å‚Å‚
4
n n2 n2 2(n -1) = 2
4
D2(\2)= D2ëÅ‚ S2 öÅ‚ =Ò! D2(S2)=
ìÅ‚ ÷Å‚
2 2
n -1 (n -1) (n -1) n2 n -1
íÅ‚ Å‚Å‚
Przygotował: Tomasz Hatake_KAKASHI Kotwis 22
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Rozkład wskaznika struktury z prób
Czasami w badaniach statystycznych badana cecha ma charakter jakościowy wówczas możemy
stwierdzić jedynie czy element populacji posiada wyróżnioną cechę czy nie. Matematycznym modelem
rezultatu takiej populacji jest rozkład dwupunktowy (zero-jedynkowy). Cechę jakościową zamieniamy na
cechę ilościową w następujący sposób:
1
Å„Å‚ 1 gdy É posiada wyróżnionÄ… cechÄ™
X ( )=
òÅ‚
0 gdy É nie posiada wyróżnionej cechy
ół0
P(X = 1)= p P(X = 0)= q = 1- p
Parametr p nazywamy wskaznikiem struktury (frakcją, odsetkiem) elementów posiadających
wyróżnioną cechę.
Twierdzenie
Jeżeli X , X ,..., X są niezależnymi zmiennymi losowymi o rozkładzie dwupunktowym to średnią
1 2 n
arytmetyczną można zapisać następująco:
1 L
Ć
X = (X + ...+ X )= = p gdzie: L jest zmienna losową przyjmującą wartości równe liczbie
1 n
n n
elementów wyróżnionych w próbce
Ć
p wskaznik struktury w próbce losowej
Twierdzenie
Jeżeli X , X ,..., X są niezależnymi zmiennymi losowymi o rozkładzie dwupunktowym to statystyka:
1 2 n
L 1 n -1
Ć
(3.21) p = ma rozkład dwumianowy z parametrami n, p o wartościach 0, ,..., ,1
n n n
Wnioski:
Ć
(3.22) E(p)= p
pq
Ć
(3.23) D2(p)=
n
ëÅ‚ öÅ‚
pq
÷Å‚
Ć
(3.24) Statystyka p dąży do rozkÅ‚adu normalnego NìÅ‚ p, przy n " zatem statystyka:
ìÅ‚ ÷Å‚
n
íÅ‚ Å‚Å‚
L
- p
n
U = N(0,1)
pq
n
--------------------------------------------------------------------------------------------------------------------------------------
4) Estymatory i ich klasyfikacja
Gdy rozkład badanej cechy nie jest znany potrzeba oszacowania parametrów tego rozkładu. Załóżmy,
ze rozkład badanej cechy X zależy od nieznanego parametru Ś (theta) będziemy próbowali oszacować ten
parametr na podstawie próby losowej prostej.
Def.
Estymatorem parametru Åš nazywamy dowolnÄ… statystykÄ™:
Tn = Tn(X + ...+ X ) której wartości przyjmujemy jako ocenę wielkości parametry Ś
1 n
Przygotował: Tomasz Hatake_KAKASHI Kotwis 23
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Uwaga:
Jeżeli (x1, x2,..., xn) jest realizacją próby losowej prostej i tn = tn(x1, x2,..., xn) to Ś H" tn .
Def.
Estymator Tn nazywamy zgodnym estymatorem parametru Ś jeżeli:
(4.1) Dla każdego > 0 lim P(Tn - Åš e" )= 0 Ô! lim P(Tn - Åš < )= 1
n" n"
Def.
Estymator Tn nazywamy nieobciążonym estymatorem parametru Ś jeżeli:
(4.2) Dla każdego n" N E(Tn)= Ś za pomocą estymatora nieobciążonego wyznaczamy Ś bez błędu
systematycznego.
Def.
Jeżeli E(Tn) istnieje i E(Tn)`" 0 to estymator Tn nazywamy obciążonym, zaś różnicę
B(Tn )= E(Tn)- Ś nazywamy obciążeniem.
Def.
Estymator Tn nazywamy asymptotycznie nieobciążonym parametru Ś jeżeli:
(4.3) lim B(Tn)= lim E(Tn)- Åš = 0
n" n"
Jeżeli Tn i Tn* są nieobciążonymi estymatorami parametru Ś , o skończonych wariancjach D2(Tn) i
D2(Tn*) spełniających warunek:
D2(Tn)< D2(Tn*) to mówimy, że estymator Tn jest efektywniejszy od estymatora Tn*
Def.
Nieobciążony estymator Tn parametru Ś , który ma najmniejszą wariancję spośród wszystkich
nieobciążonych estymatorów tego parametru nazywamy estymatorem najefektywniejszym.
Twierdzenie
(4.4) Jeśli estymator Tn spełnia warunki:
1) D2(Tn) 0
2) jest nieobciążony lub asymptotycznie nieobciążony
to jest estymatorem zgodnym.
Koniec wykładu 09
Brak wykładu 10 (zawierającego punkt 5), przechodzę od razu do wykładu 11
Przygotował: Tomasz Hatake_KAKASHI Kotwis 24
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
(B) Przedziały ufności dla wariancji lub odchylenia standardowego w populacji
Dla stosunkowo często występującego w zagadnieniach praktycznych rozkładu normalnego populacji,
2
wariancja jest drugim podstawowym parametrem. EstymacjÄ™ parametru przeprowadza siÄ™ na podstawie
próby losowej prostej, opierając się na dokładnych lub granicznych rozkładach estymatorów tego parametru.
Założenia o Szacowany Statystyka użyta do
Model Przedział ufności
rozkładzie parametr konstrukcji
2
ëÅ‚öÅ‚
nS* 2 2
nS*
nS2
N(m,Ã) nieznane
;
1 Ã2 =
ìÅ‚÷Å‚
22
2
parametry, n d" 50
(1- , n -1) ( , n -1)
íÅ‚ 22 Å‚Å‚
ëÅ‚öÅ‚
SS
N(m,Ã) lub zbliżony,
2
ìÅ‚÷Å‚
;
2
à U = 2 - 2k -1
k
22
n>50
ìÅ‚1+ u (1- ) 1- u(1- ) ÷Å‚
2n 2n
íÅ‚Å‚Å‚
2 2 2
gdzie: ( 2 , n -1), (1- ,n -1), kwantyle rozkładu o n-1 stopniach swobody, u(1- ) kwantyl
2 2
rozkładu N(0, 1).
Aby otrzymać przedział ufności dla odchylenia standardowego w modelu 1, wystarczy ze wszystkich
członów nierówności wyciągnąć pierwiastek, wówczas mamy:
2
nS* 2
nS*
< <
22
(1- , n -1)( , n -1)
22
Aby otrzymać przedział ufności dla wariancji w modelu 2 wystarczy wszystkie człony ostatniej
nierówności podnieść do kwadratu:
22
ëÅ‚öÅ‚ëÅ‚öÅ‚
SS
2
ìÅ‚÷Å‚ìÅ‚÷Å‚
< <
22
ìÅ‚1+ u(1- ) ÷Å‚ìÅ‚1- u(1- ) ÷Å‚
2n 2n
íÅ‚Å‚Å‚íÅ‚Å‚Å‚
(C) Przedział ufności dla wskaznika struktury w populacji
W wielu badaniach statystycznych np. w ankietach rozważa się cechę jakościową. Dla takiej cechy
zachodzi często konieczność oszacowania wskaznika struktury, który jest prawdopodobieństwem sukcesu
w rozkładzie dwupunktowym. Estymację parametru p przeprowadza się na podstawie próby losowej prostej za
pomocą zgodnego, nieobciążonego i najefektywniejszego estymatora:
M 1
Ć
p = = (X1 + ...+ Xn ) gdzie M jest zmienną losową przyjmującą wartości liczby wyróżnionych
n n
elementów w próbie.
Model
Niech X będzie zmienną losową o rozkładzie dwupunktowym z parametrem p. Dla dużej próby
Ć
( n > 100 ) przedział ufności dla wskaznika struktury p można skonstruować za pomocą estymatora p , który dla
dużych n ma rozkład asymptotycznie normalny N( p, p(1- p)/ n) . Po standaryzacji otrzymujemy zmienną
losowÄ…:
Ć
p - p
U = która ma w przybliżeniu rozkład normalny N(0, 1)
p(1- p)
n
Przygotował: Tomasz Hatake_KAKASHI Kotwis 25
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Dla ustalonego poziomu istotności 1- odczytujemy z tablic dystrybuanty rozkładu normalnego
wartość kwantyla rzędu 1- , tak aby:
2
P(-u(1- ) < U < u(1- )) H" 1-
22
Przekształcając nierówność podwójną tak aby p znalazło się w środkowym członie oraz podstawiając
L L
p(1- p) (1- )
n n
H"
nn
otrzymamy:
L
- p
n
-u(1- ) << u(1- )
22
L L
(1- )
n n
n
L LL L
(1- )(1- )
n nn n
L
-u(1- ) < - p < u(1- )
22
n
nn
Zatem przedział ufności pokrywa wskaznik struktury z prawdopodobieństwem w przybliżeniu równym
1- :
L LL L
ëÅ‚öÅ‚
(1- )(1- )
n nn n
LL
P - u(1- ) < p < + u(1- ) H"1-
ìÅ‚÷Å‚
nn
22
ìÅ‚÷Å‚
nn
íÅ‚Å‚Å‚
--------------------------------------------------------------------------------------------------------------------------------------
6) Weryfikacja hipotez statystycznych
Drugim podstawowym rodzajem wnioskowania statystycznego jest weryfikacja hipotez
statystycznych. Weryfikacja hipotez polega na ustaleniu, czy można uznać za właściwe oszacowania
parametrów populacji, otrzymane na podstawie próbki.
Hipotezą statystyczną nazywamy każdy sąd (przypuszczenie) dotyczące populacji generalnej
wysunięty bez przeprowadzania badania wyczerpującego. Sądy te mogą dotyczyć postaci funkcyjnej rozkładu
prawdopodobieństwa badanej cechy (hipotezy nieparametryczne) lub wartości parametrów ustalonego typu
rozkładu (hipotezy parametryczne).
Hipotezy statystyczne weryfikujemy na podstawie próby losowej danej populacji, dlatego nie jest
możliwe udowodnienie ich prawdziwości lub fałszywości z całkowitą pewnością. Weryfikacja polega na
konfrontacji wyników próby losowej z treścią postawioną w hipotezie. Jeżeli wyniki próby losowej przeczą
sformułowanemu przypuszczeniu, to sprawdzaną hipotezę odrzucamy, gdy zaś popierają postawioną hipotezę
to ją przyjmujemy. Narzędziem służącym do sprawdzania hipotez jest test statystyczny.
Test statystyczny jest to metoda postępowania, która każdej możliwej realizacji próby losowej
przyporządkowuje z ustalonym prawdopodobieństwem decyzję przyjęcia lub odrzucenia sprawdzanej hipotezy.
Niech X będzie badaną cechą w populacji, zaś H0 pewną hipotezą statystyczną, dotyczącą rozkładu
cechy X . Oprócz hipotezy sprawdzanej H0 zwanej hipotezą zerową (podstawową, główną), wygodnie jest
określić drugą hipotezę H1 zwaną hipotezą alternatywną (konkurencyjną), którą skłonni jesteśmy przyjąć
jeżeli H0 okaże się fałszywa.
Przygotował: Tomasz Hatake_KAKASHI Kotwis 26
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Weryfikacja hipotezy H0 zostanie przeprowadzona na podstawie próby losowej prostej
(X , X ,..., X ).
1 2 n
Budowa testu najogólniej ujmując jest następująca:
1) Wybieramy pewnÄ… statystykÄ™ Un = Un(X , X ,..., X ) zwanÄ… statystykÄ… testowÄ… lub
1 2 n
sprawdzianem, która mierzy różnice między wynikami próby a postacią hipotetyczną rozkładu
zmiennej losowej X .
2) Wyznaczamy zbiór liczbowy K, zwany obszarem krytycznym (odrzuceń), do którego należą
wszystkie możliwe wartości statystyki Un , które przemawiają przeciwko postawionej hipotezie
H0 .
3) Dla wyników (x1,..., xn) próby losowej wyznaczamy wartość statystyki Un i podejmujemy jedną z
dwóch decyzji:
odrzucamy hipotezę H0 i przyjmujemy H1 , jeżeli un = Un (x1,..., xn )" K ;
przyjmujemy hipotezę H0 i odrzucamy H1 , jeżeli un " K .
Podjęta w wyniku testu decyzja odrzucenia lub przyjęcia hipotezy może być błędna, gdyż opiera się na
wynikach próby losowej.
Wyróżnia się dwa rodzaje błędów:
błąd pierwszego rodzaju polega na odrzuceniu hipotezy sprawdzanej, gdy jest ona prawdziwa,
prawdopodobieństwo popełnienia tego błędu nazywamy poziomem istotności i oznaczamy , zatem
= P Un " K H0 ;
( )
błąd drugiego rodzaju polega na przyjęciu hipotezy sprawdzanej, gdy jest ona fałszywa,
prawdopodobieństwo popełnienia tego błędu oznaczamy , czyli
= P Un " K H1 = 1- P Un " K H1 .
( ) ( )
Z definicji błędów pierwszego i drugiego rodzaju wynika, że nie jest możliwe popełnienie obu tych
błędów jednocześnie. Jeżeli odrzucamy sprawdzaną hipotezę, to jesteśmy narażeni na popełnienie błędu
pierwszego rodzaju. W sytuacji, gdy test doprowadza do decyzji przyjęcia hipotezy, możemy popełnić błąd
drugiego rodzaju. Oczywiście najlepszy były test, dla którego błąd pierwszego i drugiego rodzaju wynosiłby
zero. Nie jest możliwe utworzenie takiego testu, który minimalizowałby jednocześnie oba błędy.
Zbiór krytyczny może być wyznaczony na wiele sposobów. Aby jednak uchronić się przed błędami,
zwykle dla ustalonego małego poziomu istotności wyznacza się taki zbiór krytyczny, który minimalizuje
prawdopodobieństwo popełnienia błędu drugiego rodzaju . Test oparty na takim obszarze krytycznym
nazywa siÄ™ testem najmocniejszym.
Gdy hipoteza H0 jest prawdziwa, to prawdopodobieństwo zdarzenia, że Un " K jest równe , czyli
bliskie zero. Jeżeli dla wyników pobranej próby losowej zaszło zdarzenie Un " K bardzo mało
prawdopodobne, to wnioskujemy że założenie prawdziwości hipotezy H0 było błędne, dlatego należy ją
odrzucić. Jeżeli zaś zaszło zdarzenie Un " K o dużym prawdopodobieństwie
( PUn " K H0) =1- PUn " K H0) =1- ), to potwierdza założenie o prawdziwości hipotezy H0 , dlatego nie
( (
ma powodu do jej odrzucenia.
Przy podejmowaniu decyzji o przyjęciu hipotezy H0 należy jednak liczyć się z błędem drugiego
rodzaju, który przy ustalonej małej wartości może dla niektórych próbek być stosunkowo duży.
Przygotował: Tomasz Hatake_KAKASHI Kotwis 27
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Dlatego w przypadkach, gdy prawdopodobieństwo popełnienia błędu drugiego rodzaju jest duże lub nie
jest znane, zamiast decyzji o przyjęciu hipotezy H0 podejmuje się decyzję ostrożniejszą: nie ma podstaw do
odrzucenia sprawdzanej hipotezy.
W praktycznych weryfikacjach hipotez najczęściej nie wyznacza się błędów drugiego rodzaju, lecz
wyznacza obszar krytyczny dla ustalonego poziomu istotności , tak aby było możliwie najmniejsze. Grupa
testów, w których uwzględnia się błąd pierwszego rodzaju , zaś nie uwzględnia się błędu drugiego rodzaju
nosi nazwę testów istotności. W teście takim podejmuje się decyzję o odrzuceniu hipotezy bezpośrednio
sprawdzanej H0 i przyjmuje hipotezę alternatywną H1 , lub stwierdza brak podstaw do odrzucenia H0 . Jeżeli
wartość statystyki testowej mieści się w wyznaczonym obszarze krytycznym, to zaszło zdarzenie bardzo mało
prawdopodobne dla jednej realizacji próby losowej, zatem sprzeczne było założenie o prawdziwości hipotezy
podstawowej i należy ją odrzucić. W przypadku, gdy wartość statystyki testowej dla próbki nie należy do
obszaru krytycznego (stosunkowo duże prawdopodobieństwo 1- ), to nie można wnioskować o prawdziwości
hipotezy zerowej na podstawie tylko jednej próbki, gdyż taki wniosek może być obarczony poważnym błędem
drugiego rodzaju.
Konstrukcja parametrycznego testu istotności
Parametryczne testy służą do weryfikacji hipotezy, która dotyczy nieznanego parametru Ś rozkładu
badanej cechy X w populacji generalnej, na podstawie próby losowej prostej (X , X ,..., X ). Hipoteza
1 2 n
podstawowa w teście parametrycznym ma postać:
H0 : Ś=Ś0 gdzie: Ś0 jest wartością hipotetyczną, do której przyrównujemy parametr
rozkładu populacji.
Hipoteza alternatywna może być sformułowana następująco:
H1 : Åš=Åš1 gdzie Åš1 <Åš0 H1 : Åš<Åš0
H1 : Åš=Åš1 gdzie Åš1 >Åš0 H1 : Åš`"Åš0
lub
H1 : Åš=Åš1 gdzie Åš1 `"Åš0 H1 : Åš>Åš0
W parametrycznym teście istotności można wyróżnić następujące etapy:
1) Sformułowanie hipotezy podstawowej oraz alternatywnej.
2) Ustalenie prawdopodobieństwa popełnienia błędu pierwszego rodzaju .
3) Losowanie n elementowej próby losowej prostej (X , X ,..., X ) oraz dobór statystyki testowej Un ,
1 2 n
o znanym rozkładzie zależnym od parametru Ś .
4) Wyznaczenie obszaru krytycznego K z warunku = P(Un " K / H0), tak aby zminimalizować błąd
drugiego rodzaju. Okazuje się, że dla poszczególnych hipotez alternatywnych najmocniejszy test
będzie miał następujące obszary krytyczne: dla H1 : Ś<Ś0 lewostronny K = (-",-k , dla
H1 : Åš`"Åš0 obustronny K = (-",-k *" k , +") lub dla H1 : Åš>Åš0 prawostronny K = k , +") .
5) Wyznaczenie wartości statystyki testowej un na podstawie realizacji próby losowej (x1,..., xn) .
6) Podjęcie decyzji:
odrzucenie hipotezy H0 : Ś=Ś0 jeśli un " K ;
brak podstaw do odrzucenia hipotezy H0 : Ś=Ś0 jeśli un " K .
Testy istotności mają prostą konstrukcję, jednak wadą jest, że nie ma możliwości podjęcia decyzji o
przyjęciu weryfikowanej hipotezy. Dlatego w tych testach należy tak formułować hipotezy statystyczne, aby
mieć większe przekonanie o prawdziwości hipotezy alternatywnej.
Koniec wykładu 11
Przygotował: Tomasz Hatake_KAKASHI Kotwis 28
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
Sytuacje
Decyzje
H0 prawdziwa H0 fałszywa
błąd II rodzaju
H0 przyjąć poprawna decyzja (1- )
H0 odrzucić poprawna decyzja (1- )
błąd I rodzaju
--------------------------------------------------------------------------------------------------------------------------------------
7) Parametryczne testy istotności w populacji
(A) Weryfikacja hipotezy dotyczącej wartości przeciętnej w populacji
(7.1) Model I
2
Jeżeli cecha X ma rozkład N(m, ) o niezmiennej wartości oczekiwanej i znanej wariancji = D2 X
to statystyka:
X - m0
U = n ma rozkład normalny N(0,1) przy założeniu, że prawdziwa jest hipoteza
H0:m=m0.
Hipoteza
zerowa alternatywna Statystyka testowa Obszar krytyczny k
ëÅ‚ ëÅ‚ öÅ‚÷Å‚
öÅ‚ öÅ‚;+"÷Å‚öÅ‚
ìÅ‚- ",-uëÅ‚1- ÷Å‚
*" uìÅ‚uëÅ‚1- ÷Å‚
H1:m`"m0 ìÅ‚ ìÅ‚
ìÅ‚ ìÅ‚ ÷Å‚÷Å‚
2 2
íÅ‚ Å‚Å‚ íÅ‚ Å‚Å‚
íÅ‚ íÅ‚ Å‚Å‚Å‚Å‚
X - m0
H0:m=m0
U = n
(- ";-u(1,-")
H1:mu(1- ),+")
H1:m>m0
(7.2) Model II
Jeżeli cecha X ma rozkład N(m, ) o nieznanych parametrach m, to statystyka:
X - m0
t = n -1 ma rozkład studenta o n-1 stopniach swobody, przy założeniu prawdziwości
S
H0:m=m0.
Hipoteza
zerowa alternatywna Statystyka testowa Obszar krytyczny k
öÅ‚
ëÅ‚
÷Å‚
ìÅ‚- ",-tëÅ‚1- ,n -1öÅ‚ *" tëÅ‚1- , n -1öÅ‚,+"÷Å‚
H1:m`"m0 ìÅ‚ ÷Å‚ ìÅ‚ ÷Å‚
ìÅ‚
2 2
íÅ‚ Å‚Å‚ íÅ‚ Å‚Å‚
íÅ‚
Å‚Å‚
X - m0
H0:m=m0
t = n -1
(- ";-t(1- , n -1)
H1:mS
t(1- , n -1),+")
H1:m>m0
gdzie tëÅ‚1- ,n -1öÅ‚,t(1- ,n -1) sÄ… kwantylami rzÄ™du 1- ,1- rozkÅ‚adu studenta o n-1 stopniach swobody.
ìÅ‚ ÷Å‚
2 2
íÅ‚ Å‚Å‚
Przygotował: Tomasz Hatake_KAKASHI Kotwis 29
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
(7.3) Model III
Jeżeli rozkład cechy X jest znany i próba jest duża (ne"100), to statystyka
X - m0
U = n ma rozkład w przybliżeniu N(0,1) przy założeniu że prawdziwe jest H0:m=m0.
n
2
1
2
Wobec ne"100 można wartość oszacować za pomocą estymatora S gdzie S = (X - X ) .
" i
n
i=1
Obszary krytyczne wyznacza siÄ™ jak w modelu (7.1).
(B) Weryfikacja hipotezy dotyczÄ…cej wariancji lub odchylenia standardowego w populacji
(7.4) Model I
Jeżeli cecha X ma rozkład N(m, ) o nieznanych parametrach m, to statystyka:
nS2 ma rozkład chi kwadrat z n-1 stopniami swobody przy założeniu prawdziwości
2
=
2
0
2 2
H0 : = ( = )
0 0
Hipoteza
Statystyka
zerowa alternatywna Obszar krytyczny k
testowa
ëÅ‚ ëÅ‚1-
2 2 2 2
H0 : `" ( `" ) 0, , n -1öÅ‚ *" , n -1öÅ‚,+"
ìÅ‚ ÷Å‚ ìÅ‚ ÷Å‚
0 0
2 2
íÅ‚ Å‚Å‚ íÅ‚ Å‚Å‚
nS2
2 2 2
H0 : = ( = ) =
2 2 2
0 0 2
H0 : > ( > ) 0, ( ,n -1)
0 0
0
2
2 2
H0 : < ( < ) (1- , n -1),+"
0 0
2
gdzie: ( , n -1) jest kwantylem rzędu rozkładu chi kwadrat o n-1 stopniach swobody
(7.5) Model II
Jeżeli cecha X ma rozkład N(m, ) o nieznanych parametrach m, to dla dużej próby (ne"50)
statystyka:
2
U = 2 - 2n - 3
nS2 ma rozkład w przybliżeniu N(0,1) pod warunkiem, że prawdziwa jest hipoteza
2
gdzie: =
2
0
2 2
H0 : = ( = ). Obszary krytyczne wyznacza siÄ™ jak w modelu (7.1).
0 0
(7.6) Model III
2
Jeżeli rozkład cechy X jest znany (o skończonej wariancji > 0 ) to dla dużej próby (ne"100)
statystyka:
2
\2 - n
0
U = ma w przybliżeniu rozkład N(0,1) przy założeniu prawdziwości
2
2
0
2 2
H0 : = ( = ). Obszary krytyczne wyznacza siÄ™ jak w modelu (7.1).
0 0
Koniec wykładu 12
Przygotował: Tomasz Hatake_KAKASHI Kotwis 30
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
(C) Weryfikacja hipotezy dotyczÄ…cej wskaznika struktury w populacji
(7.7) Model
Jeżeli badana cecha X ma rozkład 0-1 w populacji z nieznanym wskaznikiem struktury p i próba jest
duża (ne"100) to statystyka:
L
gdzie: L oznacza zmienną losową przyjmującą wartości równe liczbie
- p0
n
elementów wyróżnionych w próbce
U =
p0(1- p0)
n
ma rozkład w przybliżeniu normalny N(0,1) przy założeniu, że prawdziwa jest hipoteza H0 : p = p0 .
Obszary krytyczne wyznacza siÄ™ jak w modelu (7.1).
(D) Weryfikacja hipotezy o równości wartości oczekiwanych w dwóch populacjach
(7.8) Model I
Jeżeli badana cecha X ma w dwóch populacjach rozkłady N(m1, ) i N(m2, ) o znanych i
1 2 1 2
oraz nieznanych m1 i m2 to statystyka:
X - X
1 2
U =
ma rozkład N(0,1) przy założeniu poprawności H0:m1=m2. Obszary
1 2
+
krytyczne wyznacza siÄ™ jak w modelu (7.1).
n1 n2
(7.9) Model II
Jeżeli badana cecha X ma w dwóch populacjach rozkłady N(m1, ) i N(m2, ) i nieznanych
1 2
2 2
parametrach, ale równych wariancjach ( = ) to statystyka:
1 2
ma rozkład studenta o n1 + n2 - 2 stopniach swobody. Obszary
X - X
1 2
t =
krytyczne dla hipotez alternatywnych wyznaczamy jak w modelu
2 2
ëÅ‚ öÅ‚
n1S1 + n2S2 ìÅ‚ 1 1
(7.2) z tą różnicą, że wartości kwantyl odczytujemy z rozkładu
+ ÷Å‚
ìÅ‚
n1 + n2 - 2 n1 n2 ÷Å‚
íÅ‚ Å‚Å‚
studenta o n1 + n2 - 2 stopniach swobody.
(7.10) Model III
Jeżeli rozkład cechy X w dwóch populacjach jest znany (E X = m1, E X = m2) i próby są duże
1 2
(n1e"100, n2e"100), to statystyka:
X - X
1 2
U =
ma rozkład w przybliżeniu N(0,1), gdy prawdziwa jest hipoteza H0:m1=m2.
2
S12 S2
Obszary krytyczne wyznacza siÄ™ jak w modelu (7.1).
+
n1 n2
Uwaga:
(1) Jeżeli nie wiemy, czy spełnione jest założenie o równości wariancji (model 7.8) to należy je
zweryfikować za pomocą testu istotności (model 7.11).
(2) Jeżeli badamy cechę X o rozkładzie normalnym w populacji przed pewną operacją próbka
2 2 2 2 2 2
x1, x2,..., xn oraz po tej operacji próbka x1, x2,...,xn to otrzymamy dane które mogą być od siebie
zależne. Wówczas hipotezy formułujemy następująco:
Przygotował: Tomasz Hatake_KAKASHI Kotwis 31
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
H0 : m1 = 0 gdzie m = m1 - m2 . Obliczamy wyniki różnych par x1, x2,..., xn następująco
2 2 2
H0 : m1 `" 0 xi = xi - xi ;i "{1,...,n}. Weryfikacja hipotezy H0 następuje przez zastosowanie
H0 : m1 < 0 testu (7.2) do próbki x1, x2,..., xn . Jest to test zmiennych połączonych (różnie
parami).
H0 : m1 > 0
(E) Weryfikacja hipotezy o równości w dwóch populacjach
(7.11) Model
Jeżeli badana cecha X ma w dwóch populacjach rozkłady N(m1, ) i N(m2, ) to statystyka:
1 2
\12
F =
2
\2
n
2
gdzie: \ = S2 ma rozkład Fischera-Snedecora z n1-1 i n2-1 stopniami swobody przy
n -1
2 2
założeniu prawdziwości H0 : = .
1 2
Hipoteza
Statystyka
zerowa alternatywna Obszar krytyczny k
testowa
2
öÅ‚
max{\12,\2}
2 2
÷Å‚
H0 : `" F = FëÅ‚1- ;nl -1;nm -1öÅ‚;+"÷Å‚
ìÅ‚ ÷Å‚
1 2
2
2
min{\12,\2}
íÅ‚ Å‚Å‚
Å‚Å‚
\12
2 2 2 2
H0 : = H0 : < F = F(1- ;n2 -1;n1 -1);+")
1 2 1 2
2
\2
\12
2 2
H0 : > F = F(1- ;n1 -1;n2 -1);+")
1 2
2
\2
gdzie: FëÅ‚1- ;nl -1;nm -1öÅ‚ to kwantyl rozkÅ‚adu F-S o nl -1 i nm -1 stopniach swobody (nl licznika, nm
ìÅ‚ ÷Å‚
2
íÅ‚ Å‚Å‚
mianownika)
Koniec wykładu 13
(F) Weryfikacja hipotezy o równości wskazników struktury w dwóch populacjach
(7.12) Model
Jeżeli cecha X ma w dwóch populacjach rozkłady 0-1 z nieznanymi wskaznikami struktury p1,p2 to dla
dużych prób (n1e"100, n2e"100) statystyka:
L1 L2
+
n1 n2
U =
p(1- p)
n
L1 + L2 n1n2
gdzie: p = n = ma rozkład w przybliżeniu N(0,1) przy założeniu, że prawdziwa
n1 + n2 n1 + n2
jest hipoteza H0 : p1 = p2 . Obszary krytyczne wyznacza siÄ™ jak w
modelu (7.1).
Przygotował: Tomasz Hatake_KAKASHI Kotwis 32
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
--------------------------------------------------------------------------------------------------------------------------------------
8) Testy zgodności
Hipotezy formułujemy następująco:
H0 cecha X ma w populacji rozkład opisany dystrybuantą F
H1 :~ H0 (nieprawda że H0 )
Do badania zgodności rozkładu cechy X w populacji z rozkładem hipotetycznym służą:
2
test zgodności Pearsona (ne"80);
test Kołmogorowa (cecha ciągła);
test Shapiro-Wilka (rozkład normalny, nd"50).
2
8.1 Test zgodności Pearsona
Załóżmy, że wyniki próbki pogrupowano w szereg rozdzielczy przedziałowy.
Lp Granice klas Liczebność
x1d - x1g
1 n1
x2d - x2g
2 n1
. . .
. . .
. . .
x2d - x2g nk
k
Jeżeli hipoteza H0 jest prawdziwa to prawdopodobieństwo pi że badana cecha X przyjmuje wartość z
i-tej klasy wyznaczamy następująco:
pi = F(xig )- F(xid ) gdzie: F dystrybuanta rozkładu hipotetycznego, wówczas liczebność
teoretyczną wyznaczamy według wzoru: npi
Jeżeli liczebność próby jest duża (ne"80) to statystyka:
2
k
2
i
(8.1) = ma w przybliżeniu rozkład chi kwadrat z k-1 stopniami swobody
"(n - npi)
npi
i=1
Jeżeli dystrybuanta F rozkładu cechy X w populacji zależy od L parametrów o nieznanych wartościach
to statystyka (8.1) ma rozkład w przybliżeniu chi kwadrat z k-L-1 stopniami swobody.
Gdy hipoteza alternatywna jest prawdziwa to wartości statystyki chi kwadrat są dużo większe od zera.
2
Dlatego obszar krytyczny jest prawostronny K = (1- ;k - L -1);+").
Uwaga:
W klasie pierwszej i ostatniej liczebności powinny być nie mniejsze niż 5 w pozostałych klasach co
najmniej 10.
Przygotował: Tomasz Hatake_KAKASHI Kotwis 33
Egzamin - Teoria - Wykład 01-(10)-14-(15) v.0.12.63 BETA
--------------------------------------------------------------------------------------------------------------------------------------
9) Badanie statystyczne ze względu na dwie cechy
Jeżeli badamy dwie cechy mierzalne X i Y w populacji, to będziemy starali się zaobserwować pewne
własności w rozkładzie (X ,Y) na podstawie wyników n-elementowej próby losowej którą stanowią pary
(xi, yi) i "{1,...,n}. Pary te można umieścić w układzie współrzędnych otrzymując tzw. diagram korelacyjny.
Na podstawie diagramu korelacyjnego można wysunąć wstępne wnioski dotyczące zależności cechy X
i Y, np.
diagram (a) silna zależność liniowa
diagram (b) słaba zależność krzywoliniowa
diagram (c) brak zależności między cechami X i Y
Zależność między cechami statystycznymi bada się za pomocą pojęcia korelacji i regresji.
Korelacja mierzy siłę zależności między cechami X i Y. Miernikiem natężenia zależności liniowej
jest współczynnik korelacji liniowej Pearsona (X ,Y)" -1,1 . Jeśli (X ,Y) =1 to zależność między X i Y
jest ściśle liniowa. Natomiast (X ,Y)= 0 oznacza, że cechy są NIE skorelowane (brak zależności).
Regresja pozwala określić kształt zależności (liniowa, krzywoliniowa), tzn. poszukuje się pewnej
funkcji q, tak aby można było Y opisać za pomocą q(X ):Y H" q(X) metodą najmniejszych kwadratów, tzn. tak
2
aby wartość oczekiwana E(Y - q(X) ) min .
Koniec wykładu 14
--------------------------------------------------------------------------------------------------------------------------------------
Teoretycznie brak wykładu 15 (nie wiem nawet czy się odbył)
KONIEC
Przygotował: Tomasz Hatake_KAKASHI Kotwis 34
Wyszukiwarka
Podobne podstrony:
Program wykładu Fizyka II 14 15
III wykład 20 10 14 NAUKA ADM
wyklad 01 10 po 6 slajdow
wyklad 10 14 12 2010
wyklad 01 12 14
Wyklad 01 14 15 GW
Wyklad 12,13,14,15 Alkeny (eliminacja i addycja)
Wykład 10 15 12 12
KPC Wykład (14) 15 01 2013
Praca kontrolna sem IV LO 14 15 10 V
wykład 3 27 10 12
Wykład 9 15 12 12
2004 10 14 Optymalizacja wyklady
pytania egzaminacyjne do wykladu teoriakultuy
Wyklad 05 14 15 GW
Wykład 4 27 10 12
wykład 3 18 10 12
Wykład 14 i 15 Wyznaczniki
więcej podobnych podstron