wzory ze statystyki


Średnia harmoniczna
Szereg rozdzielczy
n n
x = = - gdy dysponujemy danymi indywidualnymi
H
Oznaczenia:
n
1 1 1
1
+ + ... +
"
xi - wariant cechy dla obiektu i, i = 1, .. , n
x1 x2 xn i=1
xi
k
n  liczebność próby ni - liczba jednostek o i  tej wartości cechy k
= n
"ni
i=1
"ni
k- liczba klas (wariantów cechy)
i=1
x = - gdy dysponujemy szeregiem rozdzielczym
H
k
n
ni
k < 5log n k H" n k H" 1+ 3.3log n k d"
"
10
xi
i=1
ni k
wi  wskaznik struktury (częstość)
- w przypadku stosowania wag
wi =
=1
W
"wi
n
xH =
i =1
k
w
i
nisk
wi sk skumulowany wskaznik struktury (częstość skumulowana) - "
wisk =
i=1
x
i
n
k
xmax - xmin
hi - rozpiętość (szerokość) przydziału klasowego - hi = x1i - xoi
hi = h H"
gdzie: wi = xini W =
"w
i
k
i=1
o
xoi + x1i
Środek i  tego przedziału klasowego -
xi =
2
Dominanta
nd - nd -1
do = x0d + hd
Średnia arytmetyczna
(nd - nd -1) + (nd - nd +1)
x1 + x2 + ... + xk k
1
x = = xi - stosowana do danych indywidualnych
"
gdzie: x0d  dolna granica przedziału, w którym występuje dominanta,
n n
i =1
hd - rozpiętość przedziału, w którym występuje dominanta,
ważona gdy dysponujemy szeregiem rozdzielczym:
nd, nd-1, nd+1  liczebność przedziału, w którym występuje dominanta, przedziału
k k
poprzedniego i następnego.
1
x = ni , x = xi wi - punktowym
"xi "
n
i=1 i=1
k k
Wzór Pearsona: x - do = 3(x - Me)
1
& &
x = ni , x = xi wi - przedziałowym
"xi "
n
i=1 i=1
Jeśli znamy średnie arytmetyczne dla pewnych r grup i na tej podstawie chcemy wyznaczyć średnią
Kwantyl rzędu p (0arytmetyczną dla wszystkich grup łącznie, wówczas wykorzystujemy następujący wzór:
r r
h
p
F n ( k p ) e" p
1
= +[p- ( )]w
k x F x
p 0p n 0p
x = N =
i
"x ni "ni
p
N
i=1 i=1
- dolna granica przedziału, w którym znajduje się wartość kwantyla rzędu p,
x
0p
gdzie: x - średnia arytmetyczna w i  tej grupie;
i
Fn (x0p) - skumulowana częstość względna dla dolnej granicy przedziału kwantyla rzędu p,
ni - liczebność w i  tej grupie;
hp,wp - odpowiednio: rozpiętość i częstość przedziału kwantyla rzędu p.
N  suma liczebności we wszystkich r grupach:
1
Kwartyle
- gdy dysponujemy szeregiem rozdzielczym przedziałowym
Równość wariancyjna: s2 = si2 + s2(x )
i
k
hQ
n
1
r r
Q1 = xQ + ( - )
1 1
"ni
1 2
4 nQ gdzie: si2 = oraz s2(x ) =
i i
i =1
"s ni "(x - x)2 ni
i
1
N N
i=1 i=1
k
n hMe
2
Q2 = Me = xMe + ( - )
"ni przy czym: s - wariancja wewnątrzgrupowa,
i
2 nMe
i=1
s2 (x ) - wariancja międzygrupowa.
i
k
hQ
3n
3
Q3 = xQ + ( - )
"ni
3
4 nQ
i=1 2
3
Odchylenie standardowe: s = s
- gdy dysponujemy danymi indywidualnymi
Typowy obszar zmienności:
xn+1 gdy n jest nieparzyste
ż#
#
2
x - s < xtyp < x + s Me - Q < xtyp < Me + Q
Me = -
#1
#2 (xn + xn +1) gdy n jest parzyste
(Q3 - Me) + (Me - Q1) Q3 - Q1
# 2 2
Odchylenie ćwiartkowe: Q = =
Q1, Q2, Q3  odpowiednio kwartyl pierwszy, drugi (mediana) i trzeci,
2 2
xQ1, xMe, xQ3  dolne granice przedziałów, w których znajdują się odpowiednio Q1, Q2, Q3
n  ogólna liczebność danej zbiorowości,
Współczynnik zmienności
k
- suma liczebności od klasy pierwszej do tej, w której znajdują się odpowiednio Q1, Q2, Q3,
s Q Q3 - Q1
"ni
V = V = VQ ,Q3 =
i=1
1
Me Q3 + Q1
x
hQ1, hMe, hQ3  rozpiętości przedziałów, w których znajdują się odpowiednio Q1, Q2, Q3
nQ1, nMe, nQ3  liczebności przedziałów, w których znajdują się odpowiednio Q1, Q2, Q3.
x - do
Współczynnik skośności A1 =
Rozstęp: R = xmax  xmin
s
Q3 +Q1 -2Me
Wariancja
Pozycyjny współczynnik asymetrii:
=
A
2
n n 2Q
2 2 2
1 1
2
s2 = (xi - x) = -(x) = x2 - x - dla danych indywidualnych
" "xi
n n m3
i =1 i =1
Klasyczny współczynnik asymetrii: A =
k n
2 2
1 s3
s2 = (xi - x) wi %5ń2 = (xi - x)
" "
n
n -1
1
i=1 i=1
m3 = - x)3 - dla danych indywidualnych
"(xi
k k
2 2
1 1
2 n
i=1
s2 = (xi - x) ni = - dla szeregu rozdzielczego punktowego
" "x ni -(x)
i
n
n n
1
i=1 i=1
m3 = - x)3 ni - dla szeregu rozdzielczego
"(xi
k
2
2 n
i=1
s2 = wi -(x)
"x
i
i=1
2
k
o
1
s2 = xi - xś# ni - dla szeregu rozdzielczego przedziałowego
ś# ź#
"#
n
# #
i=1
2
pt
wt qt
Koncentracja zbiorowości wokół średniej: Indywidualne indeksy wartości, cen i ilości: iw = ip = iq =
w0 p0 q0
m4
Współczynnik skupienia (kurtoza) K =
Indeksy agregatowe (zespołowe) absolutne
s4
n
1 Agregatowy wskaznik wartości (Iw)
m4 = - x)4 - dla danych indywidualnych
"(xi
pt
n "wt "qt
i=1
I = =
w
n
p0
1
"w0 "q0
m4 = - x)4 ni - dla szeregu rozdzielczego
"(xi
wt  wartość prostego zjawiska w okresie badanym
n
i=1
w0 - wartość prostego zjawiska w okresie podstawowym
2
Eksces K = K - 3 Agregatowy wskaznik cen
pt
"qc
Nierównomierny podział zjawiska w zbiorowości:
I =
p
qc p0
"qc
1
fi(zisk + zi+1sk )
" 2
Miara Lorenza
Kl = 1-
Gdy stałe ilości pochodzą z okresu podstawowego (c = 0):
5000
pt
"q0
I = - agregatowy indeks cen Laspeyresa
L p
Miary dynamiki szeregu czasowego
p0
"q0
Przyrost absolutny
Gdy stałe ilości pochodzą z okresu badanego (c = t):
jednopodstawowy: yt - yc łańcuchowy: yt - yt-1
pt
"qt
I = - agregatowy indeks cen Paaschego
P p
p0
Przyrost stosunkowy (względny)
"qt
yt - yc yt - yt-1 yt
jednopodstawowy: łańcuchowy: = - 1
Agregatowy wskaznik ilości
yc yt -1 yt -1
pc
"qt
I =
q
Indeksy indywidualne (proste)
pc pc
"q0
yt yt
jednopodstawowe: it / 0 = *100 łańcuchowe: it / t -1 = *100
Gdy stałe ceny pochodzą z okresu podstawowego (c = 0):
y0 yt -1
p0
"qt
Iq = - agregatowy indeks ilości Laspeyresa
Średni łańcuchowy wskaznik dynamiki L
p0
"q0
y1 y2 y3 yn yn
n-1 n-1
i = * * *...* =
Gdy stałe ceny pochodzą z okresu badanego (c = t):
y0 y1 y2 yn-1 y0
pt
"qt
Iq = - agregatowy indeks ilości Paaschego
P
Średniookresowe tempo zmian
pt
"q0
T = (i -1) *100
3
RACHUNEK PRAWDOPODOBIECSTWA
Indeks Fishera: I = I "P I Iq = Iq "P Iq
F p L p p F L
k
Prawdopodobieństwo zajścia zdarzenia A: P(A) =
Równość indeksowa: I =L I "P Iq =P I "L Iq =F I "F Iq
n
w p p p
n  liczba wszystkich zdarzeń elementarnych
k  liczba zdarzeń sprzyjających zajściu zdarzenia A
Zamiana indeksów:
A
- jednopodstawowych na łańcuchowe
W klasycznym schemacie prawdopodobieństwa: A" &! P(A) =
in
&!
1
in = ,
n-1 gdzie: &! - liczba wszystkich zdarzeń elementarnych
in-1
1
- łańcuchowych na jednopodstawowe A - liczba zdarzeń elementarnych sprzyjających zdarzeniu A
gdy za podstawę przyjmujemy t=1 in = in *in-1 *...*i2
Twierdzenie:
1 n-1 n-2 1
Niech &! będzie danym zbiorem zdarzeń elementarnych i niech P będzie prawdopodobieństwem
określonym na zdarzeniach A" &!, B" &!. Wówczas:
gdy za podstawę przyjmujemy t=k ( ik = 1) in = in *in-1 *...*ik -1
k k n-1 n-2 k
a) P(") = 0 P(&!) = 1
b) jeżeli A " B, to P(A) d" P(B)
c) dla każdego A" &! jest 0 d" P(A) d" 1
d) P(A) =1 - P(A)
KOMBINATORYKA
e) P(A *" B) = P(A) + P(B) - P(A )" B)
f) P(A *" B) = P(A) + P(B) - przy zdarzeniach rozłącznych
Permutacja bez powtórzeń: Pn = n!= 1" 2 "3"..." n
Jeśli dwa zdarzenia A i B są niezależne, to: P(A )" B) = P(A)P(B)
Jeżeli zdarzenia A1, A2, ..., An są niezależne, to:
n!
1
P(A1 *" A2 *"... *" An ) = 1- P(A1 *" A2 *"... *" An ) = 1- P(A )P(A )...P(A )
Permutacja z powtórzeniami: Pnn ,n2 ,...,nk = 1 2 n
n1!n2!...nk!
Prawdopodobieństwo warunkowe
n!
Niech dany będzie zbiór zdarzeń elementarnych i dowolne zdarzenie B " &! takie, że P(B) > 0.
Wariacja bez powtórzeń: Vnk =
Prawdopodobieństwem zajścia zdarzenia A pod warunkiem, że zajdzie zdarzenie B, nazywamy
(n - k)!
liczbę:
P(A )" B)
k
P(A / B) = , jeśli P(B) > 0
Wariacja z powtórzeniami: V = nk
n
P(B)
Prawdopodobieństwo warunkowe zdarzenia B przy założeniu, że zaszło zdarzenie A:
n
# ś# n!
k
P(A )" B)
Kombinacja bez powtórzeń: Cn = ś# ź# =
ś#k ź#
P(B / A) = , jeśli P(A) > 0
k!(n - k)!
# #
P(A)
P(A )" B) = P(A)P(B / A) = P(B)P(A / B)
k n + k -1
# ś#
Kombinacja z powtórzeniami: C = ś# ź#
n
P(A )" B )" C) = P(A)P(B / A)P(C / A )" B)
ś# ź#
k
# #
4
Parametry zmiennych losowych
Twierdzenie o prawdopodobieństwie całkowitym:
A" &!
Wartość oczekiwana zmiennej losowej X:
P(A)= P(A / H) P(H1) + P(A / H) P(H2 ) + ... + P(A / H) P(Hn ) "
1 2 n
ż#
xi pi dla zmiennej losowej skokowej
"
#
#
Twierdzenie Bayesa i=1
E(X ) =
# "
Przy założeniach tw. o prawdopodobieństwie całkowitym dla A takiego, że P(A) > 0
#
xf(x)dx dla zmiennej losowej ciaglej
P(A/Hk )P(Hk )
+"
#
P(Hk /A)=
#-"
P(A)
Wariancja zmiennej losowej X:
n
ż#
ZMIENNE LOSOWE
-E(X)]2 pi dla zmiennej losowej skokowej
"[xi
#
#
i=1
Funkcja rozkładu prawdopodobieństwa zmiennej losowej dyskretnej X
D2(X ) =
#"
k
#
P(X = xi ) = pi , pi =1 i = 1, 2,..., k +"[x - E(X)]2 f(x)dx dla zmiennej losowej ciaglej
"
#-"
#
i=1
Dystrybuanta zmiennej losowej dyskretnej X
2
D2(X ) = E[X - E(X )]2 = E(X ) - E(X )2
F(x) = pi
"
xi d"x
Odchylenie standardowe:
Funkcja gęstości prawdopodobieństwa zmiennej losowej ciągłej X
b
D(X ) = D2 (X )
f (x) e" 0 f (x)dx =1
+"
a
Współczynnik zmienności:
Dystrybuanta dla zmiennej losowej ciągłej X
x
D(X )
V (X ) =
F (x) = P(X < x) = f (t)dt dla x " R
+" E(X )
-"
Jeżeli gęstość f(x) zmiennej losowej X jest funkcją ciągłą, to F'(x) = f(x)
Mediana zmiennej losowej X:
b
1 1
P(a d" X d" b) = P(a < X d" b) = P(a d" X < b) = P(a < X < b) = f (x)dx
P(X d" x) e" i P(X e" x) e"
+"
2 2
a
dla dowolnych a < b
1
Mediana zmiennej losowej ciągłej X: F(x) =
2
Dla zmiennej losowej ciągłej prawdziwe są następujące wzory:
P(X = a) = 0
P(a d" X d" b) = P(a < X < b) = F(b) - F(a)
P(X < a) = F(a)
P(X > a) = 1- F(a)
5
Rozkład t (Studenta)
Wybrane rozkłady dyskretne
Rozkładem Studenta z k stopniami swobody nazywamy rozkład prawdopodobieństwa zmiennej
losowej t określonej następująco:
Rozkład dwumianowy (Bernoulliego)
T
t = k
n
# ś#
2
P(X = k) = ś# ź# pk (1 - p)n-k

ś#k ź#
k
# #
2 2
gdzie T i są niezależnymi zmiennymi losowymi, T ma rozkład normalny N(0,1) a ma
 
E(x) = np D2(x) = np(1  p) k k
rozkład Chi-kwadrat z k stopniami swobody.
Rozkład Poissona
P(t e" tą ,k ) = ą
k
P(X = k) = e- ,dla k = 0, 1, 2, ..., gdzie E jest dodatnią stałą (E > 0).
ą ą ą
k! P(t e" tą ,k ) = P(t < -tą ,k ) = P(t d" tą ,k ) = P(t e" -tą ,k ) = 1-
2 2 2
E(x) = E D2(x) = E
k
E(t) = 0 D2(t) =
k - 2
Wybrane rozkłady ciągłe
Rozkład F Snedecora
Rozkład normalny
( x-m)2
Rozkładem Snedecora ze stopniami swobody (r1,r2) nazywamy rozkład prawdopodobieństwa ilorazu:
-
1
2
2
2
N(m, ) f (x) = e , - < x < 1
r
 2Ą
1
1
przy czym > 0. e = 2.72 Ą = 3.14
Fr r = r
,
2
1 2 1
r
E(x) = m D2(x) = 2 Me = m do = m 2
r
2
X -m
2 2
U =
 gdzie są niezależnymi zmiennymi losowymi mającymi rozkład Chi2 odpowiednio
,
 
Standaryzacja: N (m, ) Ż#Ż#Ż# N (0,1)
Ż#
r r
1 2
z r1 i r2 stopniami swobody.
2
Rozkład  (Chi-kwadrat)
0,01
ż#
Rozkładem 2 z k stopniami swobody nazywamy rozkład następującej sumy:
#
Fą ,r1,r2 F1-ą ,r2 ,r1, = 1 P(F e" Fą ,r1,r2 ) =
2 2 2 #0,05
 = X12 + X2 + ... + X
k
#
0,1
#
gdzie X1, X2,& ,Xk są niezależnymi zmiennymi losowymi o rozkładzie normalnym N(0,1).
E(2) = k D2(2) = 2k
r2 2r22(r1 + r2 - 2)
E(Fr ,r2 ) = D2(Fr ,r2 ) =
2 2 1 1
P(k e" ą ) = ą r2 - 2 r1(r2 - 2)2(r2 - 4)
Jeżeli liczba stopni swobody jest większa od 30, wówczas korzystamy z rozkładu zmiennej losowej
2
2k , która ma rozkład zbliżony do rozkładu N( 2k -1,1) .
6
PRZEDZIAAY UFNOŚCI DLA WARTOŚCI OCZEKIWANEJ
Twierdzenia graniczne
MODEL I
Twierdzenie Moivre a  Laplace a
Populacja generalna ma rozkład N(m, ), gdzie: - znane
 
Dana jest zmienna losowa X o rozkładzie Bernoulliego B(n, p) (z parametrami n  liczba
n
P(x - uą < m < x + uą ) =1 - ą
doświadczeń i p  prawdopodobieństwo sukcesu). Przy dużej liczbie prób (n > 30), rozkład zmiennej
n n
losowej X można przybliżyć rozkładem normalnym o parametrach N(np, npq) .
n
MODEL II
Populacja generalna ma rozkład N(m, ), gdzie: - nieznane, n d" 30
X
n
Gdy zmienna losowa jest postaci X = , to przy dużej liczbie prób ma rozkład zbliżony do
n
s s
n
P(x - tą ,k < m < x + tą ,k ) = 1- ą
n -1 n -1
pq
lub
normalnego o parametrach N( p, ) .
n
%5ń %5ń
P(x - tą ,k < m < x + tą ,k ) = 1- ą
n n
Centralne twierdzenie graniczne Lindeberga  Levy ego
gdzie:
n n
1 1
Dana jest zmienna Zn = X1 + X + ... + X . Przy dużej liczbie prób (n > 30) rozkład
2 n
s = - x)2 , %5ń = - x)2
"(xi "(xi
n n -1
i =1 i =1
zmiennej losowej Zn przybliżamy rozkładem normalnym o parametrach N(nm, n) .
X1 + X + ... + X MODEL III
2 n
Gdy zmienna losowa jest postaci Z = , to przy dużej liczbie prób
n Populacja generalna ma rozkład N(m, ), bądz dowolny inny rozkład o średniej m i skończonej
n
wariancji 2, gdzie: - nieznane, n > 30

s s
ma rozkład zbliżony do normalnego o parametrach N(m, ) .
P(x - uą < m < x + uą ) = 1- ą
n
n n
Prawo wielkich liczb Bernouliego
Ciąg zmiennych losowych {Xn} o rozkładach określonych wzorem (rozkład dwumianowy):
PRZEDZIAA UFNOŚCI DLA WSKAyNIKA STRUKTURY
n k n-k
k # ś#
P{ = } = ś# ź#
p q
X n ś#k ź#
n
# # # ś#
m m m m
#1 - ś# #1 - ś#
ś# ź#
ś# ź# ś# ź#
jest zbieżny stochastycznie do wartości p. (prawdopodobieństwa sukcesu), tzn.
ś# m n n m n n ź#
k
Pś# - uą # # < p < + uą # # ź# = 1 - ą
lim P{| - p |< } = 1
n n n n
n"
n
ś# ź#
ś# ź#
Prawo wielkich liczb Czebyszewa
# #
Jeżeli dla ciągu zmiennych losowych {Xk} (k=1,2,...), z których każda ma skończoną wartość
n  wielkość próby
oczekiwaną E(Xk) oraz wariancję D2(Xk) jest spełniony warunek
m  ilość wyróżnionych elementów
2
lim ( ) = 0
D X k
k"
to ciąg ten jest zbieżny stochastycznie do wartości oczekiwanej E(Xk), tzn.
lim P{| - E( ) |< } = 1
X X
k k
k"
7
2
PRZEDZIAA UFNOŚCI DLA WARIANCJI
uą pq
n =
Populacja generalna ma rozkład N(m, ), gdzie: - nieznane, n < 30
2
d
2 2
# ś#
ns ns
2 gdzie:
ś# ź#
Pś# <  < = 1 - ą lub
p - spodziewany rząd wielkości szacowanego wskaznika struktury, q = 1  p
c2 c1 ź#
# #
2
uą
# - 1)%5ń2 2 (n - 1)%5ń2 ź#
ś#
(n
b) jeśli nie znamy rzędu wielkości szacowanego wskaznika struktury p n =
ś#
Pś# <  < = 1 - ą
2
4d
c2 c1 ź#
# #
2 2
c1, c2  wartości zmiennej  wyznaczone z rozkładu  dla n  1 stopni swobody oraz wsp.
ufności w taki sposób, że
PARAMETRYCZNE TESTY ISTOTNOŚCI
1 1
2 2
P( < c1) = ą , P( e" c2 ) = ą
2 2 Test istotności dla średniej (wartości przeciętnej) m:
H0: m = m0, H1: m m0 lub H1: m > m0 lub H1: m < m0
PRZEDZIAA UFNOŚCI DLA ODCHYLENIA STANDARDOWEGO
Model I
Populacja generalna ma rozkład N(m, ) lub zbliżony do normalnego, gdzie: n > 30
Populacja generalna ma rozkład N(m, ); - znane;
# ś#
x - m0
ś# ź#
Sprawdzianem hipotezy H0 jest statystyka: u = n o rozkładzie N(0, 1).
s s
ź#

Pś# <  < =1 - ą
ś#
uą uą ź#
Model II
1 + 1 - ź#
ś#
Populacja generalna ma rozkład N(m, ); - nieznane; n < 30
2n 2n
# #
x - m0 x - m0
Sprawdzianem hipotezy H0 jest statystyka: t = n -1 = n
MINIMALNA LICZEBNOŚĆ PRÓBY
s %5ń
o rozkładzie t-Studenta z n -1 stopniami swobody.
MODEL I
Populacja generalna ma rozkład normalny N(m, ). Wariancja populacji 2  znana
Model III
2 2
Populacja generalna ma rozkład N(m, ) lub dowolny inny rozkład o średniej wartości m i o
uą
n = d  dopuszczalny ustalony z góry maksymalny błąd szacunku średniej m skończonej, ale nieznanej wariancji 2. n > 30
2
d
x - m0
Sprawdzianem hipotezy H0 jest statystyka: u = n o rozkładzie N(0, 1).
MODEL II
s
Populacja generalna ma rozkład normalny N(m, ). Wariancja populacji 2  nieznana,
%5ń2 - uzyskana z małej próby o liczebności n0 elementów  znana.
Test istotności dla dwóch średnich
2
n0
Dane są dwie zbiorowości generalne o rozkładach N(m1, 1) i N(m2, 2);
tą ,k%5ń2
1
H0: m1 = m2, H1: m1 m2 lub H1: m1 > m2 lub H1: m1 < m2
n = , %5ń2 = - x)2 jest wariancją z małej próby o liczebności n0
"(xi
2
d n0 -1
i =1
Model I
1, 2 - znane; próby niezależne
MODEL III
Populacja generalna ma rozkład dwupunktowy z parametrem prawdopodobieństw (tzn.
x1 - x2
prawdopodobieństw jest procentem elementów wyróżnionych w populacji).
Sprawdzianem hipotezy H0 jest statystyka u = o rozkładzie N(0, 1)
2 2
a) jeśli znamy spodziewany rząd wielkości szacowanego procentu p, to niezbędną wielkość próby
 
1 2
ustalamy według wzoru:
+
n1 n2
8
Model II Test hipotezy o dwóch wariancjach
1, 2 - nieznane; 1 = 2; n1 d" 30, n2 d" 30, próby niezależne 2 2 2 2
H0 :1 = 2 H1 :1 > 2
x1 - x2
2
Sprawdzianem hipotezy H0 jest statystyka t =
%5ń 2 2
2 2 (1)
n1s1 + n2s2 # ś#
1 1
Fobl = , >
Sprawdzianem hipotezy H0 jest statystyka
2 %5ń %5ń
(1) (2)
ś# ź#
" +
ś#
%5ń
(2)
n1 + n2 - 2 n1 n2 ź#
# #
o rozkładzie F-Snedecora z r1=n1-1 i r2=n2-1 stopniami swobody.
o rozkładzie t-Studenta z n1 + n2  2 stopniami swobody.
Model III
1, 2 - nieznane; n1 > 30, n2 > 30
Nieparametryczne testy istotności
x1 - x2
2
Sprawdzianem hipotezy H0 jest statystyka u = o rozkładzie N(0, 1)
Test zgodności 
2 2
s1 s2
H0: F(x)=F0(x) (cecha ma rozkład zgodny z wybranym rozkładem teoretycznym),
+
H1: F(x)`"F0(x) (cecha ma rozkład inny niż wybrany rozkład teoretyczny).
n1 n2
k
2
i
Sprawdzianem hipotezy H0 jest statystyka obl =
"(n - npi )2
npi
Test istotności dla wskaznika struktury
i=1
2
H0: p = p0, H1: p p0 lub H1: p > p0 lub H1: p < p0
o rozkładzie z k = r  s  1 stopniami swobody

m
pi  prawdopodobieństwo, że cecha X przyjmuje wartość należącą do i-tego przedziału klasowego,
- p0
npi  liczba jednostek, które powinny znalezć się w i-tym przedziale przy założeniu, że cecha ma
n
Sprawdzianem hipotezy H0 jest statystyka u = o rozkładzie N(0, 1)
rozkład zgodny z rozkładem teoretycznym określonym w H0,
p0q0 s  liczba parametrów, które należy wstępnie wyznaczyć na podstawie próby,
r  liczba przedziałów klasowych.
n
2 2
Zbiór krytyczny: P( > ą ) = ą ,
Test istotności dla dwóch wskazników struktury
2
2
H0: p1 = p2, H1: p1 p2 lub H1: p1 > p2 lub H1: p1 < p2
ą - wartość krytyczna odczytana z tablic rozkładu  dla k = r  s  1 stopni swobody i zadanego ą.
m1 m2
-
Test zgodności -Kołmogorowa
n1 n2
H0: F(x)=F0(x) (cecha ma rozkład zgodny z wybranym rozkładem teoretycznym),
Sprawdzianem hipotezy H0 jest statystyka u = o rozkładzie N(0, 1)
H1: F(x)`"F0(x) (cecha ma rozkład inny niż wybrany rozkład teoretyczny).
pq
Sprawdzianem hipotezy H0 jest statystyka  = nDn
n
o asymptotycznym rozkładzie  Kołmogorowa
m1 + m2 n1n2 nisk
Dn = sup | F(x)-F*(x)|
gdzie: F"(x) =
gdzie: p = ; q =1 - p ; n =
-"n1 + n2 n1 + n2
Zbiór krytyczny: P( e" ą ) = ą ,
Test hipotezy o wariancji
2 2 2 2 ą odczytujemy z tablic rozkładu Kołmogorowa w ten sposób, że Q( ą ) = 1- ą
H0 : = 0 H1 : > 0
n
ns2 (n -1)%5ń2 1
2
Sprawdzianem hipotezy H0 jest statystyka: obl = = = - x)2
"(xi
2 2 2
0 0 0 i=1
2
o rozkładzie z n-1 stopniami swobody

9
Test Kołmogorowa-Smirnowa
2
H0: F1(x)=F2(x), H1: F1(x)`"F2(x). 
obl.
Współczynnik V Cramera:
V =
Sprawdzianem hipotezy H0 jest statystyka:  = nDn n2 n min(k -1,l -1)
1
gdy k=l  to 0d" V d"1, (V=T),
o asymptotycznym rozkładzie   Kołmogorowa.
gdy k`"l  to 0d" V d"1, (V>T),
n1n2
Gdy obliczony współczynnik jest  w pobliżu zera  cechy X i Y są stochastycznie niezależne, im jest
n = Dn n2 = sup Fn* (x) - Fn* (x)
1 1 2
bliższy jedności  tym silniejsza zależność. Gdy k=l=2, to =V=T.
n1 + n2 x
n1, n2  liczebności dużych prób z obu populacji,
Fn* (x), Fn* (x) - dystrybuanty empiryczne w próbach. Kowariancja między cechami X i Y
1 2
n
1
Zbiór krytyczny: P( e" ą ) = ą ,
COV (X ,Y ) = - x)(yi - y) = xy - x * y
"(xi
n
i=1
ą odczytujemy z tablic rozkładu Kołmogorowa w ten sposób, że Q( ą ) = 1- ą
Współczynnik korelacji liniowej Pearsona
n
- x)(yi - y)
2
"(xi
Test niezależności 
COV (X ,Y )
i=1 rxy " -1; 1
= =
H0: pij=pi.p.j H1: pij`"pi.p.j
r
xy
n n
2 2
s s
2 x y
k l
(nij - npij)
" -x) (yi - y)
(xi "
2
i=1 i=1
Sprawdzianem hipotezy H0 jest statystyka: obl =
""
npij
i=1 j =1
2 Współczynnik korelacji rang Spearmana:
o asymptotycznym rozkładzie z k = (r-1)(s-1) stopniami swobody

n
2
ni n
. . 6
j "di
npij=npi.p.j=
i =1
rs = 1- rs " -1; 1
n
n(n2 -1)
r  ilość wariantów cechy X = liczba wierszy w tablicy dwudzielnej
s  ilość wariantów cechy Y = liczba kolumn w tablicy dwudzielnej di - różnice między rangami odpowiadających sobie wartości cech xi i yi (i=1,2,...,n).
2 2
Zbiór krytyczny: P( > ą ) = ą ,
Liniowa funkcja regresji
2
2
ą - wartość krytyczna odczytana z tablic rozkładu  dla k = (r-1)(s-1) stopni swobody
Ć
w = ayx + by x = ax y + bx
n
- x)(yi - y)
"(xi
Ocena siły współzależności cech jakościowych: by = y - ay x
COV (X ,Y ) s
y
i=1
= = = ,
a 2 n r
y
2 2 xy
s
x
s
x
 " -x)
(xi
obl.
i=1
Współczynnik   Yule a:
 =
n
n
2
gdy k=2, l  dowolne  to 0d"  d"1,
( )
yi- wi
"
gdy k>2, l  dowolne  to  może być większe od 1.
Odchylenie standardowe reszt ei,
i=1 = -
y w
= .
e
i
s i i
e
2
n - 2

obl.
Współczynnik zbieżności T Czuprowa:
T =
n
2
Współczynnik zbieżności
yi- wi
n (k -1)(l -1) ( )
"
2
i=1
= ,

n
2
yx
yi-
"( yi)
gdy k=l  to 0d" ń d"1,
i=1
gdy k`"l  to T może być znacznie mniejsze od 1.
Współczynnik determinacji R2=1-2.
10


Wyszukiwarka

Podobne podstrony:
praca ze statystyki
Tikhonenko O Wykłady ze statystyki matematycznej Wykład 6
100 pytań i odpowiedzi ze statystyki (5)
Metodologia bada psychologicznych ze statystyk1
Tikhonenko O Wykłady ze statystyki matematycznej Wykład 2
Tikhonenko O Wykłady ze statystyki matematycznej Wykład 3
Tikhonenko O Wykłady ze statystyki matematycznej Wykład 7

więcej podobnych podstron