Teoria statystyka




Teoria




@font-face {
font-family: Marlett;
}
P.MsoNormal {
FONT-FAMILY: "Times New Roman"; FONT-SIZE: 12pt; MARGIN: 0cm 0cm 0pt; mso-style-parent: ""; mso-pagination: widow-orphan; mso-fareast-font-family: "Times New Roman"
}
LI.MsoNormal {
FONT-FAMILY: "Times New Roman"; FONT-SIZE: 12pt; MARGIN: 0cm 0cm 0pt; mso-style-parent: ""; mso-pagination: widow-orphan; mso-fareast-font-family: "Times New Roman"
}
DIV.MsoNormal {
FONT-FAMILY: "Times New Roman"; FONT-SIZE: 12pt; MARGIN: 0cm 0cm 0pt; mso-style-parent: ""; mso-pagination: widow-orphan; mso-fareast-font-family: "Times New Roman"
}
P.MsoBodyText {
FONT-FAMILY: "Times New Roman"; FONT-SIZE: 5pt; MARGIN: 0cm 0cm 0pt; mso-pagination: widow-orphan; mso-fareast-font-family: "Times New Roman"; mso-bidi-font-size: 12.0pt
}
LI.MsoBodyText {
FONT-FAMILY: "Times New Roman"; FONT-SIZE: 5pt; MARGIN: 0cm 0cm 0pt; mso-pagination: widow-orphan; mso-fareast-font-family: "Times New Roman"; mso-bidi-font-size: 12.0pt
}
DIV.MsoBodyText {
FONT-FAMILY: "Times New Roman"; FONT-SIZE: 5pt; MARGIN: 0cm 0cm 0pt; mso-pagination: widow-orphan; mso-fareast-font-family: "Times New Roman"; mso-bidi-font-size: 12.0pt
}
DIV.Section1 {
page: Section1
}
OL {
MARGIN-BOTTOM: 0cm
}
UL {
MARGIN-BOTTOM: 0cm
}







'); //-->


Podstawowe
pojęcia
Statystyka
matematyczna – zajmuje się
metodami wnioskowania o całej zbiorowości statystycznej na podstawie pewnej jej
części zwanej próbą lub próbką. Zajmuje się również zbieraniem,
klasyfikacją  i przetwarzaniem
danych.
Wnioskowanie – ocena
punktowa i przedziałowa o parametrach populacji, - testowanie hipotez o
parametrach populacji.
Populacja – zbiór
dowolnych elementów (tzn. osobników, pomiarów, podmiotów, ...) nieidentycznych z
punktu widzenia badanej cechy o których chcemy wnioskować.

Próba – podzbiór
populacji podlegający bezpośredniemu badaniu ze względu na ustaloną cechę w celu
wyciagnięcia wniosków o kształtowaniu się wartości tej cechy w populacji. Próba
powinna być reprezentatywna, czyli nie powinna różnić się pod względem badanej
cechy od populacji. Wybór elementów do próby musi być losowy (przypadkowy).

Zmienna losowa
(cecha) – jest to
interesująca charakterystyka elementów populacji lub próby. Może być cecha
ilościowa (czyli mierzalna) lub jakościowa (podlegająca pewnym kryteriom).

Dana
(obserwacja) – wartość
interesującej cechy związana z jednym elementem próby lub populacji.

Eksperyment – planowana
działalność mająca dostarczyć zbiór danych.
Parametr – liczbowa
charakterystyka całej populacji.
Próba losowa i
jej charakterystyki
Dobór z
populacji elementów próby powinien być dodawany w drodze losowania tzn. w taki
sposób, że jedynie przypadek zdecyduje o tym, który element populacji generalnej
wchodzi do próby, a który nie.
Liczebność
próby – liczba
elementów lub jednostek populacji wybranych do próby. Oznaczamy n, gdy n<30
to próba mała, n ³ 30 próba
duża.
Liczbowa
charakterystyka próby to:

-         
miary
położenia,
-         
miary
zmienności.
Miary
położenia
-średnia`x
(wartość przeciętna),
-mediana
Me (jest to wartość środkowa uporządkowanego ciągu obserwacji. Jeżeli n jest
parzyste, to za medianę bierzemy średnią dwóch środkowych obserwacji). Mniej
czuła na odstające obserwacje; – średnia i mediana są w takiej samej jednostce
jak próba,
-moda
Mo (najczęściej pojawiająca się w próbie obserwacja. Może występować brak mody
lub kilka mód),
-kwartyl
dolny Q1
(jest to mediana zbioru obserwacji od najmniejszej do mediany włącznie. To
wartość oddzielająca uporządkowane obserwacje próby tak, że poniżej
Q1 znajduje się co najmniej ¼ a powyżej co najmniej ¾ wszystkich
obserwacji),
-kwartyl
górny Q3
(jest to wartość oddzielająca uporządkowane obserwacje tak, że poniżej
Q3 znajduje się co najmniej ¾ , a powyżej co najmniej ¼ wszystkich
obserwacji),
-średnia
ucięta
(średnia arytmetyczna obserwacji z próby po usunięciu z niej obserwacji
najmniejszych i największych określonej, takiej samej proporcji).
Miary zmienności
(rozrzutu, rozproszenia) – rozstęp R , wariancje s2 ,
odchylenie standardowe s , odchylenie przeciętne od wartości średniej d1
, odchylenie przeciętne od mediany d2 , współczynnik zmienności
V.
Proporcja,
frakcja elementów
posiadających odpowiednie własności. Frakcja p5= x / n (n
elementów, x spełnia warunek) - odpowiednik  w populacji p.
Graficzne
przedstawienie danych
 Szereg rozdzielczy Þ
histogram
-         
określenie rozstępu,

-         
ustalenie liczby przedziałów
klasowych o jednakowej dł. h,
-         
liczenie liczebności w
poszczególnych klasach,
-         
tworzenie tabel
zawierających w pierwszej kolumnie przedziały klasowe o dł. h , a w drugiej
kolumnie liczbę obserwacji należących do poszczególnych
przedziałów,
-         
histogram – wykres.

Parametry
populacji
Rozkład zmiennej
losowej –
określa w jaki sposób jakość prawdopodobieństwa rozkłada się na wartości
zmiennej. Kształt krzywej Gaussa zależy od parametru б.
Miary położenia
i rozrzutu -
średnia populacji (wartość oczekiwana) μ, - wariancja populacji б2
.
Estymacja
punktowa i przedziałowa

Charakterystyki
populacji (parametry populacji) (Nieznany parametr populacji – estymator
próby); μ -`x (μ – wartość przeciętna,
średnia populacji), б2 – s2 (б2 - wariancja populacji), p. – m./ n ( p. - proporcja – frakcja
elementów spełniających pewną własność), gdzie m. jest liczbą obserwacji
posiadającą badaną właściwość w próbie n elementowej.
Rozkłady.
-rozkład
Bernoulliego - C
wartość liczbowa, liczba sukcesów w próbie serii doświadczeń n elementowych.

-rozkład
normalny – funkcja opisuje jak prawdopodobieństwo 1 rozkłada się na różne
wartości. ( б ,μ) – parametry
rozkładu. μ – wartość przeciętna zmiennej losowej o wartości normalnej, wartość
oczekiwana E (x) = μ. б2 – wariancja zmiennej
losowej o wartości normalnej D2 (X) = б2 .

Estymacja
elementów populacji
Estymacja – szacowanie nieznanego
parametru populacji.
Estymacja
punktowa –
wyznaczenie wartości statystyki, czyli funkcji obserwacji będącej oszacowaniem
nieznanego parametru.
Estymacja
przedziałowa –
przedział wiarygodny do przyjęcia przez szukany parametr wartości. Stopień
wiarygodności to współczynnik ufności 1- a.
Estymator – szczególne funkcje
pozwalające obliczyć parametry populacji. Własności : - nieobciążony (średnia
wartość uzyskanych wyników daje wartość poprawną, nieobciążoną błędem), -
minimalna wariancja (rozrzut rozkładu minimalny).
Statystka – dowolna funkcja zmiennych
losowych.
Współczynnik
(poziom) ufności – prawdopodobieństwo, że
obliczony na podstawie próby przedział obejmuje nieznany parametr – ozn. 1-
a.
Przedział
ufności dla wartości oczekiwanej (średniej populacji) -
cecha w
populacji ma rozkład normalny z nieznaną średnia populacji μ i wariancją
б2.
Przedział
ufności dla wariancji populacji б2 - cecha w populacji badanej
ma rozkład normalny z wartością oczekiwaną μ oraz wariancją б2.

Przedział
ufności dla funkcji (wskaźnika struktury) - cecha badana jest cechą
jakościową, przy czym frakcja elementów w populacji spełniających interesującą
własność wynosi p.
Wyznaczanie
niezbędnej liczby pomiarów – ustalamy współczynnik
ufności 1- a, - ustalamy max błąd
szacunku tj. połowę przedziału ufności (ozn. d).
Testowanie
hipotez
Hipoteza – (przypuszczalność)
sformułowanie przypuszczenia o parametrze populacji, lub parametrach kilku
populacji.
1)Sformułowanie
hipotezy H0 – jest to
hipoteza na której skupiamy uwagę, najczęściej jest to stwierdzenie, że dany
parametr populacji ma określoną wartość. Interpretując tę hipotezę stwierdzamy,
że nie ma różnicy między tym co przypuszczamy, a tym co jest (stąd różnica
zerowa).
2)Sformułowanie
hipotezy alternatywnej HA – jest to stwierdzenie
alternatywne dotyczące parametrów populacji o którym mówiła hipoteza zerowa,
najczęściej przyjmuje postać stwierdzenia, że wartość parametru jest inna od
spodziewanej H0. Od momentu sformułowania
hipotez H0 i HA przyjmujemy, że H0 jest
prawdziwa.
3)Ustalenie
kryteriów testowania
a)   określenie statystyki testowej tj.
określenie funkcji obserwacji, której rozkład znamy i pozwoli to podjąć decyzję
dotyczącą hipotezy zerowej. Rozkład tej statystyki znany jest przy prawdziwości
H0. Na końcu testowania na podstawie wielkości obliczonej z próby
podejmujemy decyzję o prawdziwości H0. Poprawna decyzję typu A
podejmujemy, gdy nie odrzucamy hipotezy prawdziwej, decyzję typu B gdy odrzucamy
H0 – fałszywą. Błąd I
rodzaju – polega na odrzuceniu hipotezy prawdziwej. Prawdopodobieństwo tego
błędu będziemy oznaczać przez a.
Błąd II rodzaju – polega na przyjęciu
hipotezy fałszywej, prawdopodobieństwo tego błędu b,

b)      
określenie
poziomu istotności a -
przyjmuje
zwykle wartość 0,05; 0,01,
c)      
zbudowanie
obszaru krytycznego, czyli obszaru odrzucenia hipotezy H0
– zbiór
wartości statystyki testowej, która nakaże odrzucenie H0,
prawdopodobieństwo dostania się do tego obszaru wynosi a.

4)Obliczanie
wartości statystyki testowej - obliczanie
wartości statystyki z 3) na podstawie próby.
Podjecie decyzji
dotyczącej H0 – decyzję
podejmujemy po porównaniu wartości statystyki testowej obliczonej w 4) i obszaru
krytycznego. Decyzję podejmujemy w następujący sposób: - jeżeli wartość
statystyki testowej z 3) znajduje się w obszarze krytycznym to H0
odrzucamy na korzyść HA (prawdopodobieństwo, że się mylimy wynosi
a),  - jeżeli wartość statystyki testowej
znajduje się poza obszarem krytycznym to powiemy, że nie ma podstaw do
odrzucenia H0.
Kontrola
prawdopodobieństwa
1)      
zidentyfikować
parametr (lub parametry) w kontekście interesującego
problemu,
2)      
zapisać
hipotezę zerową (£ = ³),
3)      
zapisać
hipotezę alternatywną (< ¹>),

4)      
zapisać
formułę na obliczenie statystyki testowej wpisując wielkości znane (z
H0, z rozkładu),
5)      
ustalić obszar
krytyczny przy przyjętym poziomie istotności a (wartość
krytyczna),
6)      
obliczyć
wielkość z próby i obliczyć wartość statystyki testowej,
7)      
zdecydować,
czy hipoteza H0 powinna być odrzucona i sformułować odpowiedni
wniosek.
Analiza
wariancji –jest
to metoda służąca do testowania populacji o średnich większych od 2 populacji.
Przyjmujemy że mamy do czynienia z ‘t’ populacjami a cecha nas interesująca w
każdej populacji ma rozkład normalny lub średni lub wariancji. Populacje
powstają przez zastosowanie lub wyróżnienie przez eksperymentatora pewnego
czynnika mającego wpływ na badaną cechę np. badaną temp. Czynnik taki występuje
w kilku wariantach(odniesieniach) lub na kilku poziomach. Poziomy jednego
czynnika lub kombinacje kilku czynników nazywamy obiektami
doświadczalnymi.
 Klasyfikacja
jednokierunkowa - gdy wprowadzony jest 1 czynnik o t-poziomach i
d-wariantach to obserwacje klasyfikowane są wyłącznie o przynależności do
jednego z położeń. Poziomy lub warianty w tym przypadku nazywane są obiektami.
Obiekty stosowane są na jednostkach doświadczalnych. Jednostki przed
zastosowaniem powinny być jak najbardziej jednorodne i powinny być przypisane do
obiektu w sposób całkowicie losowy. O układzie takim mówimy że jest układem
całkowicie losowym lub układem o klasyfikacji jednokierunkowej.

Procedura
testowania jest następująca: hipotezę Ho; m1=m2=....=mt należy odrzucić na rzecz
Ha gdy Fo=MST/MSE>Fa;t-1;n-t, wnioskowanie to
zachodzi na poziomie a. Warunki poprawnie
przeprowadzonej wariancji; 1) normalność badanej cechy 2) losowość przypisania
jednostek do obiektów 3) jednorodność wariancji.
Testy
szczegółowe po analizie wariancji
Metoda
Tuckey’a – test
jednoczesny, porównuje pary średnie. Jak posługiwać się tą metodą: 1)obliczamy
NIR 2) wypisujemy średnie obiektowe w rosnącym porządku i podkreślamy wspólną
kreską te, które nie różnią się istotnie (różnią się o mniej niż NIR).
Jakakolwiek para średnich, która nie jest podkreślona wspólną linią, odpowiada
parze prawdziwych średnich obiektowych, które są istotnie różne.

Metoda
Dunnetta -
ta metoda
stosowana jest do jednoczesnego badania różnic między średnią dla obiektu
kontrolnego a pozostałymi średnimi. Do zastosowania tej metody potrzebujemy
tablic Dunnetta. Podobnie jak w metodzie Tuckey’a o tych średnich, które różnią
się o mniej niż NIR, powiemy, że nie różnią się istotnie.
Metoda
Scheffe’go -
niech c1, c2, ....ct –będą liczbami spełniającymi warunek Sci=0. Wtedy  Scimi nazywana jest kontrastem.
Jeżeli c1=1, c2= -1, ct=0, to Scimi =m1-m2 i jest również kontrastem
porównującym 2 średnie. Metoda Scheffe’go daje równoczesne przedziały ufności z
e wspólnym współczynnikiem ufności (1-a) dla wszystkich możliwych
kontrastów.
Metoda
Fishera –
dotyczy porównania par średnich obiektowych. Nie jest to procedura testowania
jednoczesnego. Metodą tą posługujemy się jak metodą Tuckey’a, z tą różnicą, że
łączny poziom istotności a a więc prawdopodobieństwo
popełnienia błędu I rodzaju wynosi a dla każdego
porównania.
Założenia
analizy wariancji
1) próby pochodzą z
populacji normalnych N(m1, d21).
2) wariancje t populacji
powinny być równe d21 =d22 warunek o równości
wariancji można sprawdzić za pomocą testowania hipotezy o równości t-wariancji,
za pomocą testu Bartleta.
Regresja
liniowa

Określa związek
determistyczny pomiędzy cechą obserwowaną a cechą kontrolowaną. x- zm.
niezależna, y- zm. zależna, Y- zm. losowa.Związek pomiędzy y i x przedstawiamy
jako funkcja liniowa: y= β0+β1x    Oczekujemy , że E(Y)=
β0+β1x Y~N(μ, б 2) б 2,
β0,β1-nie są znane.
Metoda
najmniejszych kwadratów
Metoda, która dostarcza
takich estymatów w której suma kwadratów pionowych odległości punktów
obserwowanych od prostej jest najmniejsza. Prosta
y=b0+b1x  ma
być najlepiej dopasowana.
Ŷ=
b0+b1x  -ocena
równania regresji liniowej,  
E(Y)= β0+β1x -rzeczywiste równanie regresji
liniowej  y ze względu na
x.
Wartość dopasowana lub
prognozowana Ŷ1 ,Ŷ2 ,...,Ŷn są uzyskane przez
kolejne podstawienie: x1,x2,...,xn  do równania regresji:
Ŷ1= b0+b1x1,..., Ŷn=
b0+b1xn. Reszty (y1-
Ŷ1),...,( yn- Ŷn)są pionowymi odchyleniami
obserwacji od prostej regresji. Suma kwadratów dla błędu oznacza
SSE=Σ(yi- Ŷi)2 , a po podzieleniu przez (n-2)
uzyskujemy MSE=SSE/(n-2), który jest estymatorem
б2.
Współczynnik
determinacji
a)      
zmienna y wynika w 100% z
zależności od x ,
b)      
zmienna y wynika w dużym
stopniu z zale- żności od x,
c)      
zmienną y trudno tłumaczyć
zależnością od x.
Współczynnik determinacji
R2 dany jest zależnością R2=1-SSE/SSG i współczynnik ten
interpretowany jest jako proporcja obserwowanej zależności y, która może być
wytłumaczona zależnością y od x.  
R2 należy <0,1>.
Testowanie
hipotezy o współczynniku regresji β1
Współczynnik regr.
β1 jest oczekiwaną zmianą y, gdy x wzrośnie o jednostkę. Ocenę
β1 znajdujemy obliczając b1. Interesującą hipotezę
dotyczącą określonej wartości β1 oznaczamy przez β10,
zapisujemy: H0: β1= β10
W wypadku prawdziwości
H0 y nie zależy od x, tak więc znajomość x nie daje informacji o y.
Test ten nazywa się testem użyteczności modelu w
regresji liniowej lub istotności regresji. Odrzucenie H0 pozwala na
stwierdzenie istotnej zależności y od x, a zatem i poprawności prognozowania
y.
Analiza
wariancji w regresji
Rozbicie SSG na część SSE,
która mierzy niewytłumaczoną zmienność y przez x, oraz SSR, która mierzy
wytłumaczoną zmienność y od zleżności x.
SSG-suma kwadratów ogółem,
SSE-dla błędu,SSR-dla zmiennej
Prognoza
i estymacja przedziałowa w analizie regresji
Ŷ=b0+b1x
Niech x* określa wartość zmiennej x. Przy danym równaniu regresji
liniowej możemy obliczyć ocenę oczekiwanej (rzeczywistej) wartości Y, gdy x=
x*   Możemy to
nazwać prognozowaniem Ŷ(x*)=b0+ b1x   Błąd popełniony przy tej metodzie
S Ŷ(x*) zależy od położenia x*  w stosunku do średniej arytmetycznej
xśr. Im dalej punkt ten leży od xśr tym błąd prognozy S
Ŷ(x*) jest większy i prognozowanie staje się mniej precyzyjne.
Ekstrapolacja, czyli branie x* spoza obserwowanego zakresu x
obarczone jest wielkim błędem. Gdyby narysować przedziały ufności wzdłuż wykresu
uzyskujemy tzw. krzywe ufności.
Korelacja
Badanie współzależności
dwóch cech mierzalnych. Współczynnik korelacji z próby r, n par obserwowanych
(x1,y1),...,(xn,yn). Jeżeli
zależność między x i y jest dodatnia (wprost proporcjonalna) to
Sxy>0, i na odwrót. Wielkość Sxy zależy od jednostek w
których mierzone są cechy
x i y. Inną wolną od
jednostek miarą zależności pomiędzy dwiema cechami jest współczynnik korelacji
r.
R=
Sxy/√(SxxSyy)  Własności r:
·        
wielkość nie zależy od
przypisania zmiennych do xlub y,
·        
wartość jest niezależna od
jednostki x oraz y, jest wielkością niemianowaną,
·        
-1≤r≤1,
·        
r =1, wtedy wszystkie pary
(xi,yi) leżą na prostej z dodatnim współczynnikiem
kierunkowym,
·        
r=-1, wtedy wszystkie pary
(xi,yi) leżą na prostej z ujemnym współczynnikiem
kierunkowym,
·        
kwadrat współczynnika
korelacji jest wartością współ. determinacji w modelu liniowym
regresji 
(r)2=R2.
 
Przyjmuje się, że: │r│≤0,5
kor. słaba,   0,8 ≤│r│≤1 kor.
silna,  pozostałe korelacje
średnie.
Współczynnik
korelacji w populacji ρ
Współ. kor. r jest miarą jak
silnie x i y związane są w próbie. O parach (xi,yi) możemy
myśleć jako o pomiarach cech X i Y na jednostkach na próbach pochodzących z
populacji, w której rzeczywista zależność pomiędzy x i y wynosi ρ. W takiej
sytuacji r jest oceną wielkości ρ i r może służyć do wnioskowania o ρ. Hipoteza
H0: ρ=0 stwierdza,że nie ma zależności pomiędzy X i Y w populacji, o
tym samym mówiła hipoteza H0: β1=0.  Okazuje się, że dwie procedury testowe
dla H0: ρ=0 i H0: β1=0 są równoważne. Inne
wnioski dotyczące ρ:
·        
H0: ρ=
ρ0  
ρ0  <-1,1>,
≠0  nie ma odpowiednika w hipotezach
dotyczących wsp. regresji β1.
·        
H0:
ρ1= ρ2 
porównuje dwa wsp. korelacji.
Regresja
krzywoliniowa (wielomianowa)
E(Y)=
β0+β1x+β2x2
Ocena regresji stopnia
drugiego:
Ŷ=
b0+b1x+b2x2 
Obiektywną oceną przydatności modelu zapewnia
statystyka    F= MSR/MSE,
na której oparty jest test hipotezy o braku związku wielomianowego pomiędzy
wartością przeciętną y a parabolą   
β0+β1x+β2x2
Hipoteza H0:   należy odrzucić na korzyść
alternatywnej Ha:co najmniej jeden wsp. jest różny od zera, gdy:  
F=MSR/MSE>Fα;2;n-3
Współczynnik
determinacji R2
R2=1-SSE/SSG  Wsp. Determinacji określa jaką część
ogólnej zmienności y można wytłumaczyć zależnością od x.
Przydatność modelu można
określic wielkością R2 oraz wielkością MSE będącego oceną wariancji
zmiennej Y. MSE-średni kwadrat dla błędu.
Zasadność
przyjętego stopnia regresji
Wnioski o β2
:   H0:
β2=0        
Ha: β2≠0    
t=b2/Sb2    Sb2-ocena błędu
oceny b2.  
Prognoza: określona wartość zmiennej x=x*, chcemy ocenić wart.
zmiennej Y dla x*
Regresja
wielokrotna
Interesujący jest teraz typ
zależności, w której uwzględnia się zależność cechy Y od k cech niezależnych
x1,...,xk. 
Określając tego typu zależność, oczekujemy, że : E(Y)=
β0+β1x1+β2x2+...+
βkxk
Βi(i≠0) może być
interpretowana jako wsp. określający podział poszczególnych zmiennych w
tworzeniu przeciętnej wartości y.
Ocena równania regresji
wielokrotnej ma postać:
Ŷ=
b0+b1x1+b2x2     Interpretacja
b1,b2:   
bj(j=1,2) wyraża przeciętną zmianę wartości cechy Y gdy cecha
xj zmienia się o jedną jednostkę przy ustalonych wartościach
pozostałych cech.
Przydatność modelu regresji
testujemy za pomocą hipotezy:
H0:
β1=β2=0 
Ha:co najmniej jeden wsp. jest różny od
zera.
Test hipotezy o istotności
regresji jest analogiczny do testowania tej hipotezy w regresji
krzywoliniowej:
H0:
βj=0        
Ha: βj≠0    
t=bj/Sbj,Sbj-ocena błędu oceny
bj
Elementy
statystyki nieparametrycznej i wnioskowanie o zmiennych
jakościowych
Statystyka
nieparametryczna-wolna od rozkładu.
Współczynniki
korelacji rang
a)      
wsp. korelacji rang jest
nieparametryczną alternatywą współczynnika korelacji liniowej (r). Obserwacjami
są subiektywnie nadawane rangi czyli „numery ważności”. Oceną związku x, y, jest
wsp. korelacji rang Spermana wyznaczony wg wzoru zawierający się w przedziale:
rs <-1,1>
b)      
wsp. korelacji
Kendalla-wyznacza się poprzez uporządkowanie prób niemalejąco wg cechy x. Dla
każdej rangi cechy drugiej (y) liczymy w pary z rangami po niej następującymi z
wart. większą.
Test
serii
Test ten sprawdza czy dane
pochodzą z tej samej czy z różnych populacji. Jest on nieparametryczną
alternatywą testu porównującego średnie dwóch populacji. Seria- ciąg danych
posiadających tę samą cechę. Testowanie wg hipotez:
H0: cechy należą
do tej samej populacji 
Ha: cechy nie należą do tej samej populacji  .
Algorytm:

·        
wszystkie obserwacje należy
ustawić w ciąg niemalejący zaznaczając skąd pochodzi dana
obserwacja,
·        
należy policzyć liczbę serii
k0=...,
·        
konstrukcja obszaru
krytycznego w oparciu o wart. z tablic testu serii: 
kα;n1;n2.
Wnioskowanie
o cechach jakościowych:(statystyka Χ2)
Występuje wiele problemów,
których informacje są kategoryzowane i wyniki podawane są jako liczebności dla
pewnych kategorii (k>2). Będziemy decydowali czy obserwowane liczebności
zgadzają się z teoretycznymi (oczekiwanymi) stosując statystykę X2. Z
postaci X2 wynika, że małe wartości X2 skłaniają do
uznania zgodności obserwowanych i teoretycznych liczebności. Duże natomiast
sugerują rozbieżność między tymi liczebnościami.
Test zgodności:
badamy czy
obserwowane cechy zgadzają się z oczekiwanymi.
Test niezależności:
badamy czy
jest zależność (związek) pomiędzy obserwowanymi obiektami a badaną
cechą.


Wyszukiwarka

Podobne podstrony:
Opracowana teoria statystyka
Teoria Definicje Statystyka
Statystyka teoria i zadnia z rozwiązaniami (15 stron)
Statystyka matematyczna i teoria estymacji
statystyka teoria przyklady
statystyka opisowa teoria
Statystyka teoria
statystyka teoria
pawlikowski, fizyka, szczególna teoria względności
Teoria i metodologia nauki o informacji
teoria produkcji
Cuberbiller Kreacjonizm a teoria inteligentnego projektu (2007)
Teoria B 2A

więcej podobnych podstron