13 Testy nieparametryczne

background image

R O Z D Z I A Ł 13

T E S T Y N I E P A R A M E T R Y C Z N E

I. Wprowadzenie

W poprzednich rozdziałach (za wyjątkiem rozdziału 12) przedstawiliśmy różnorodne
parametryczne testy statystyczne. Ich użycie do opracowywania wyników badań jest
ograniczone określonymi założeniami - zmienne mierzalne, zmienne mające rozkład
normalny, jednorodność zbioru itd. W a r u n k i e m użycia tych testów jest więc sprawdzenie
wyżej wymienionych założeń. W przypadku ich niespełnienia wyciągnięte wnioski nie są
całkowicie poprawne lub tracą swoją wiarygodność. Testy te stają się też bezużyteczne dla
danych jakościowych i danych uporządkowanych. W tych wszystkich przypadkach
stosujemy testy nieparametryczne. Za pomocą testów nieparametrycznych (jak i testów
parametrycznych) m o ż e m y rozstrzygnąć, czy określoną hipotezę m o ż e m y odrzucić, czy też
nie m a m y do tego podstaw. W tym ostatnim przypadku nie oznacza to, że nasza hipoteza

jest całkowicie słuszna, lecz że nie stoi w sprzeczności z otrzymanymi wynikami naszych

badań. Testy nieparametryczne nie zależą od kształtu rozkładu zmiennej oraz od p e w n y c h
parametrów rozkładu populacji. Dla testów nieparametrycznych również wzory służące do
ich obliczenia są proste, a same obliczenia nie zajmują dużo czasu. M o ż e m y je więc
szeroko stosować wszędzie tam, gdzie nie są spełnione założenia w y m a g a n e dla testów
parametrycznych. Stosujemy je również wtedy gdy nasze dane są jakościowe lub m o ż n a je
tylko uporządkować według określonych kryteriów oraz dla grup o małej liczebności. Siła
testów nieparametrycznych (1 minus wielkość błędu drugiego rodzaju) jest j e d n a k niższa
niż siła testów parametrycznych. Stosujemy je więc tylko wówczas, gdy nie m o ż e m y
posłużyć się testem parametrycznym. Niniejszy rozdział jest w całości poświęcony testom
nieparametrycznym.

Testy przez nas przedstawione podzielimy na sześć grup:

1. Testy dla dwóch niezależnych próbek (nieparametryczne odpowiedniki testu

t-Studenta dla zmiennych niepowiązanych)

• Test serii Walda-Wolfowitza
• Test U Manna-Whitneya
• Test Kołmogorowa-Smirnowa

2. Testy dla dwóch zależnych próbek (nieparametryczne odpowiedniki testu

t-Studenta dla zmiennych powiązanych)

• Test z n a k ó w
• Test kolejności par Wilcoxona
• Test M c N e m a r y

3. Testy dla n próbek (nieparametryczne odpowiedniki analizy wariancji)

• Test Kruskala-Wallisa
• Test Friedmana
• Test Q Cochrana

263

background image

Przystępny kurs statystyki

4. Korelacje nieparametryczne

• R Spearmana
• Tau Kendalla
• Test χ

2

5. Testy

zgodności

• Test χ

2

• Test

Kołmogorowa-Smirnowa

Przykład 1
W dwóch grupach chorych na pewną chorobę neurologiczną przeprowadzono badania
stężenia adrenaliny w surowicy krwi. Zebrane wyniki dla 24 pacjentów przedstawia
poniższa tabela:

N u m e r

grupy

Wielkość

stężenia

R a n g a

N u m e r

grupy

Wielkość

stężenia

R a n g a

14,34

14

II

5,33

1

I

20,33

17

II

22,50

19

I

18,79

15

II

11,74

9

I

8,22

4

II

7,39

2

I

31,5

22

II

12,34

12

I

12,08

10

II

13,22

13

I

22

18

II

8,53

5

I

9,22

7

II

22,80

20

I

19,50

16

II

12,70

11

I

78,89

24

II

7,78

3

I

30,48

21

II

9,63

8

I

45,86

23

II

8,90

6

Przyjmując poziom istotności p = 0,05, zweryfikujemy hipotezę, że stężenie adrenaliny
w obu grupach jest jednakowe. Ponieważ zmienna opisująca p o z i o m adrenaliny nie ma
rozkładu normalnego, nie m o ż e m y zastosować testu t-Studenta, p o s ł u ż y m y się więc j e g o
nieparametrycznym odpowiednikiem testem Manna-Whitneya.

Punktem wyjścia w opisywanym teście jest nadanie w y n i k o m obserwacji rang.

Przebiega to następująco:

1. Porządkujemy rosnąco wartości obu prób.

2. Zaczynając od wartości najmniejszej (lub największej) przyporządkowujemy

poszczególnym obserwacjom kolejne liczby naturalne.

3. W przypadku wystąpienia wartości jednakowych, przyporządkowujemy im

tzw. rangi wiązane (średnia arytmetyczna z rang, jakie p o w i n n o im się
przypisać).

Rangi przypisane obserwacjom z analizowanego przykładu podane są w powyższej tabelce.
Wykorzystamy obecnie wspomniany test Manna-Whitneya następującej postaci:

264

background image

Testy nieparametryczne

Po obliczeniu sumy rang w poszczególnych grupach otrzymujemy R

1

= 191 oraz R

2

= 109.

Statystyka U przyjmuje teraz wartość U= 144+(12*13)/2 - 191 = 3 1 . Z tabeli wartości
krytycznych testu U Manna-Whitneya dla p o z i o m u istotności p = 0,05 otrzymujemy
U

p

(n

1

,n

2

) = 37. Ponieważ obliczona wartość statystyki U jest niniejsza (!) od krytycznej,

zatem w o m a w i a n y m przykładzie odrzucamy hipotezę zerową i stwierdzamy, że różnica
między stężeniami adrenaliny z obu grup jest statystycznie istotna.

Przykład 2
Przeprowadzono badania w celu porównania czterech m e t o d leczenia pewnej choroby.
Pobrano pięcioelementowe próby losowe spośród chorych na daną chorobę, których
leczono odpowiednio metodą I, II, III i IV. Wyniki terapii oceniono w specjalnym teście.
Wartości testu (podane w umownej punktacji) wraz z przypisanymi im rangami p o d a n o
w poniższej tablicy:

265

background image

Przystępny kurs statystyki

Metoda I

Rangi

Metoda II Rangi Metoda III Rangi Metoda IV Rangi

57

2

74

20

63

8,5

62

6,5

58

3

66

11,5

68

15

63

8,5

67

13

65

10

59

4,5

66

11,5

50

1

72

19

59

4,5

71

18

62

6,5

68

15

68

15

70

17

25,5

75,5

47,5

61,5

Chcemy zweryfikować hipotezę, że wszystkie metody leczenia dają j e d n a k o w e wyniki
w leczeniu choroby.

T y m razem m u s i m y zastosować test sprawdzający hipotezę, że k niezależnych

próbek pochodzi z tej samej populacji. Najczęściej w tym celu używany jest test sumy rang
Kruskala-Wallisa będący nieparametryczną alternatywą analizy wariancji z klasyfikacją
pojedynczą. Stosujemy go również, gdy założenia analizy wariancji nie są spełnione. Jest
to test słabszy, ale równocześnie w y m a g a słabszych założeń. Test ten ma postać:

Założenia testu:
Danych jest k populacji, w których badana cecha ma rozkłady typu ciągłego i dane m o ż n a
rozpatrywać w skali porządkowej. O z n a c z m y przez Fi( x ), F

2

(x ), F

k

( x ) dystrybuanty

rozpatrywanych populacji.
Z populacji tych wylosowano po n j (i = 1 , ...,k) elementów do prób (n, > 5).

Weryfikacja hipotezy:

H

0

: F,(x) = F

2

(x) =... = F

k

(x)

266

background image

Testy nieparametryczne

Dla naszego przykładu obliczona wartość statystyki H ( u w z g l ę d n i a j ą c poprawkę) wynosi
H= 7,8414, co pozwala odrzucić hipotezę zerową na poziomie istotności 0,05 (wartość

krytyczną χ

20,05:3

= 7,815 znajdujemy w tablicach statystycznych).

Wartość statystyki

H należy bowiem do obszaru krytycznego, co ilustruje poniższy rysunek:

Rys. 13.1 Obszar krytyczny dla testu Kruskała-Wallisa

Wybór metody leczenia ma zatem istotnie statystyczny wpływ na wynik terapii.

Przykład 3
Chcemy ustalić współzależność między opiniami wydanymi przez dwóch lekarzy
o zdrowiu 10 pacjentów. Opinie te zostały ujęte w punktach:

Pacjenci

A

B

C

D

E

F

G

H

I

J

Punkty

uzyskane od

I lekarza

42

27

36

33

24

47

39

52

43

37

Punkty

uzyskane od II lekarza

39

24

35

29

26

47

4 4

51

39

32

Ponieważ istnieje możliwość uporządkowania opinii lekarzy (wyrażonej w punktach), to

jako miarę korelacji dwóch wyrażonych opinii użyjemy współczynnik korelacji rang

Spearmana. Współczynnik ten służy do opisu siły korelacji cech jakościowych, które
możemy uporządkować. Miarę tę stosujemy również do badania zależności między
cechami ilościowymi w przypadku niewielkiej liczby obserwacji. Podobnie j a k
współczynnik korelacji liniowej Pearsona, współczynnik korelacji rang Spearmana

oraz ma podobną interpretację.

przyjmuje wartości z przedziału

background image

Przystępny kurs statystyki

Współczynnik korelacji rang Spearmana obliczamy według wzoru:

Jak widać, obliczenia należy rozpocząć od uporządkowania wyjściowych informacji
rosnąco (lub malejąco) i przypisania im rang. Rangowanie m o ż e się odbywać od wartości
największej do najmniejszej (lub odwrotnie), j e d n a k ż e sposób rangowania musi być

jednakowy dla obydwu zmiennych. W n a s z y m przykładzie p u n k t o w y m o c e n o m lekarzy

nadajemy rangi (zaczynając od wartości najmniejszej) jak, to jest widoczne w poniższej
tabeli:

Pacjenci

A

B

C

D

E

F

G

H

I

J

Rangi

I lekarza

7

2

4

3

1

9

6

10

8

5

uzyskane od

II lekarza 6,5

1

5

3

2

9

8

10 6,5

4

Wykorzystując powyższy wzór na współczynnik Spearmana otrzymujemy

r

s

= 1 - 63/10(100-1) = 0,936

Otrzymany wynik wskazuje na silną współzależność opinii d w ó c h lekarzy o stanie zdrowia
pacjenta.

Przedstawione powyżej przykłady wskazują obszar zastosowań testów
nieparametrycznych. O m ó w i o n o w nich również testy rozwiązujące postawione tam
problemy bez użycia komputera. Dziś nikt j e d n a k nie prowadzi analizy statystycznej „na
piechotę" (bez użycia techniki komputerowej). Pozostałe testy o m ó w i m y więc w oparciu
o pakiet STATISTICA.

II. A jak to się liczy w programie STATISTICA

W programie STATISTICA testy nieparametryczne tworzą swój własny m o d u ł n a z w a n y
Statystyki nieparametryczne/Rozkłady. Po otwarciu tego m o d u ł u na ekranie pokazuje się
okno przedstawione na poniższym rysunku.

268

background image

Testy nieparametryczne

Rys. 13.2 O k n o m o d u ł u - Statystyki nieparametryczne

Powyższe okno umożliwia dostęp do wszystkich statystyk nieparametrycznych i rozkładów
opisanych w o m a w i a n y m module. Każdy z testów zawartych w t y m oknie zostanie
szczegółowo opisany poniżej w tym rozdziale. Na samej górze okna m a m y opcje
umożliwiające przejście do okna dialogowego realizującego testowanie zgodności rozkładu
danych z dowolnie wybranym rozkładem hipotetycznym.

II. 1 Testy dla dwóch niezależnych próbek

Omówienie testów zawartych w m o d u l e Statystyki Nieparametryczne rozpoczniemy od
opisania grupy testów będących nieparametrycznymi odpowiednikami testu t-Studenta.
Należą do niej testy:

• test serii Walda-Wolfowitza
• test U Manna-Whitneya
• test Kołmogorowa-Smirnowa

Testy te służą do weryfikacji hipotezy, że dwie analizowane próby pochodzą z różnych
populacji. Wymagają one założenia, że analizowane zmienne m o g ą być uporządkowane od
wartości najmniejszej do wartości największej (tzn. są mierzone na skali porządkowej). Ich
interpretacja właściwie jest taka sama, jak w przypadku testu t-Studenta dla zmiennych
niepowiązanych. Dane powinny być podobnie rozmieszczone w dwóch kolumnach (dwie
zmienne). Jedna kolumna zawiera zmienne do przeprowadzenia odpowiedniego

background image

Przystępny kurs statystyki

porównania, a druga zawierająca zmienną grupującą (zmienna niezależna) do

jednoznacznej identyfikacji grup. Sytuację taką widzimy na poniższym rysunku:

Rys. 13.3 Fragment arkusza danych

Po dwukrotnym kliknięciu na nazwie testu otwiera się okno dialogowe umożliwiające
wybór zmiennych do analizy, podania k o d ó w oraz przeprowadzenia interpretacji graficznej
otrzymanych wyników. Okna te dla wszystkich o m a w i a n y c h testów są takie same,
przykładowo więc opiszemy j e d n o związane z testem Walda-Wolfowitza. O k n o to

przedstawione jest na poniższym rysunku.

Rys. 13.4 O k n o testu Walda-Wolfowitza

Do dyspozycji m a m y opcje:

[1] - przycisk Zmienne, powodujący otwarcie okna wyboru zmiennych. O k n o to

umożliwia wybór zmiennych, a także oferuje rozmaite opcje przeglądania zawartości
zbioru danych (więcej informacji na ten temat znajduje się w rozdziale trzecim).

270

background image

Testy nieparametryczne

[2] - pola umożliwiające określenie k o d ó w użytych do identyfikacji grup.

Wartości kodów wpisujemy bezpośrednio w tych polach lub wybieramy z listy otwierającej
się po dwukrotnym kliknięciu na tym polu.

[3] - przyciski tworzące interpretację graficzną otrzymanych w y n i k ó w analizy

statystycznej. M a m y możliwość utworzyć Wykres R a m k o w y charakteryzujący
podstawowe właściwości rozkładu zmiennej. Jest więc on użytecznym narzędziem do
porównywania rozkładu zmiennych w różnych grupach. Drugi typ wykresu to
Skategoryzowany Histogram rozkładu wyselekcjonowanej zmiennej. Wykresy
skategoryzowane są tworzone przez podzielenie danych na podzbiory, a następnie
odwzorowanie wszystkich podzbiorów na oddzielnych m a ł y c h wykresach,
rozmieszczonych na j e d n y m obrazie.

Sposób weryfikacji hipotez przy p o m o c y nieparametrycznych odpowiedników testu
t przedstawimy w oparciu o dane z przykładu 1.

Przykład 1 cd.
Analizę rozpoczniemy od testu Walda-Wolfowitza (test najbardziej konserwatywny). Test
ten oparty jest na rozkładzie liczby serii. Jeśli serii jest mało, będziemy mogli odrzucić
hipotezę zerową, w przeciwnym wypadku niemożliwe jest odrzucenie hipotezy zerowej, że
dwie próby pochodzą z tej samej populacji.

Po wprowadzeniu danych i określeniu k o d ó w klikamy na przycisku OK dla

rozpoczęcia analizy. Wynik zostanie wyświetlony w oknie, którego postać przedstawiona

jest na poniższym rysunku.

Rys. 13.5 Arkusz w y n i k ó w testu Walda-Wolfowitza

Poszczególne pola w arkuszu wyników oznaczają odpowiednio:

[1] - liczebność grupy oznaczonej symbolem „ a "
[2] - liczebność grupy oznaczonej symbolem „ b "
[3] - średnia wartości grupy oznaczonej k o d e m „ a "
[4] - średnia wartości grupy oznaczonej k o d e m „ b "
[5] - wartość testu Walda-Wolfowitza brana p o d uwagę, gdy liczebność obu

grup jest większa od 20

[6] - poziom istotności wyliczona dla powyższej wartości testu
[7] - wartość testu skorygowanego stosowanego dla małych liczebności (poniżej

20). Tę p o p r a w k ę na ciągłość wprowadził Siegel w 1956 roku

[8] - poziom istotności dla testu poprawionego
[9] - liczba serii - podstawowa wielkość w konstrukcji testu Walda-Wolfowitza.

Hipotezę zerową odrzucamy gdy liczba serii jest zbyt m a ł a

[10] - liczba rang wiązanych

271

background image

Przystępny kurs statystyki

Jak wynika z arkusza w y n i k ó w testu Walda-Wolfowitza dla przykładu pierwszego nie
m a m y podstaw do odrzucenia hipotezy zerowej.

A tak wygląda arkusz w y n i k ó w testu Manna-Whitneya (rysunek poniżej). Test ten został
dokładnie omówiony na początku tego rozdziału. T y m razem, j a k wynika z arkusza
wyników, m o ż e m y n a poziomie istotności p = 0,018 odrzucić hipotezę zerową.

Stwierdzamy więc, że różnica między stężeniami adrenaliny z obu grup jest statystycznie
istotna.

[1] [2] [3] [4] [5] [6] [7] [8] [9]

[10]

Rys. 12.6 Arkusz w y n i k ó w testu Manna-Whitneya

Poszczególne pola w arkuszu w y n i k ó w oznaczają odpowiednio:

[1] - suma rang dla grupy oznaczonej symbolem „ a "
[2] - suma rang dla grupy oznaczonej symbolem „ b " (stanowią one podstawę

podejmowanych decyzji)

[3] - wartość testu Manna-Whitneya stosowanego dla małych liczebności

(poniżej 20)

[4] - wartość testu Manna-Whitneya brana p o d uwagę, gdy liczebność obu grup

jest większa od 20

[5] - poziom istotności wyliczona dla powyższej wartości testu
[6] - wartość testu skorygowanego, stosowanego ze względu na rangi wiązane

dla liczebności obu grup powyżej 20

[7] - poziom istotności wyliczona dla powyższej wartości testu
[8] - liczebność grupy oznaczonej symbolem „ a "
[9] - liczebność grupy oznaczonej symbolem „ b "
[10] - dla prób o małej liczebności obliczana jest wartość 2*p, gdzie p jest równe

1 minus odpowiednia wartość dystrybuanty rozkładu statystyki U.

Stosujemy, gdy nie występują rangi wiązane

Z kolei arkusz w y n i k ó w testu K o ł m o g o r o w a - S m i r n o w a (dla tych samych danych)
przyjmuje postać widoczną na poniższym rysunku.

272

background image

Testy nieparametryczne

Rys. 13.7 Arkusz wyników testu K o ł m o g o r o w a - S m i r n o w a

Poszczególne pola w arkuszu wyników oznaczają odpowiednio:

[1] - maksymalna wartość ujemnych różnic
[2] - maksymalna wartość dodatnich różnic

M a k s i m u m z bezwzględnych wartości powyższych liczb stanowi podstawę
wnioskowania statystycznego w teście Kołmogorowa-Smirnowa.

[3] - p o z i o m istotności wyliczona dla powyższej wartości testu
[4] - średnia wartości grupy oznaczonej k o d e m „ a "
[5] - średnia wartości grupy oznaczonej k o d e m „ b "
[6] - odchylenie standardowe grupy oznaczonej k o d e m „ a "
[7] - odchylenie standardowe grupy oznaczonej k o d e m „ b "
[8] - liczebność grupy oznaczonej symbolem „ a "
[9] - liczebność grupy oznaczonej symbolem „ b "

Otrzymujemy, jak poprzednio, że różnica między stężeniami adrenaliny z obu grup jest
statystycznie istotna (poziom istotności p< 0,05). Potwierdza to interpretacja graficzna
(wykres ramkowy) przedstawiona na poniższym rysunku.

Rys. 13.8 Wykres ramkowy dla danych z przykładu 1

273

background image

Przystępny kurs statystyki

II. 2 Testy dla dwóch zależnych próbek

Jako drugą grupę opiszemy testy dla d w ó c h zmiennych zależnych. Należą do nich:

• test znaków
• test kolejności par Wilcoxona.

Są one nieparametryczną alternatywą testu t-Studenta dla z m i e n n y c h powiązanych.
Stosujemy je, gdy dysponując d w o m a pomiarami c h c e m y dowieść, że pomiary różnią się.
Inaczej mówiąc, testy te przeznaczone są do sprawdzania istotności różnic między d w i e m a

zależnymi próbkami. Te dwie zależne próbki to albo dwie obserwacje u tej samej osoby
(np. przed i po zabiegu) albo też badania p r o w a d z i m y dla par osób o tych samych
właściwościach. Ich hipoteza zerowa mówi, że wyniki obu próbek są j e d n a k o w e . Testy te

stosujemy również wtedy, gdy nie są spełnione założenia testu t dla zmiennych
powiązanych. Za ich p o m o c ą m o ż e m y stwierdzić, czy próbki (zmienne) różnią się między
sobą pod względem pewnych własności. Te łatwe w użyciu testy wymagają jedynie
założenia, że badane zmienne m o ż e m y uporządkować (są mierzalne na skali porządkowej).

Test znaków, jak sama n a z w a wskazuje, oparty jest na znakach różnic między

kolejnymi parami wyników (czy są ujemne, czy dodatnie). Test ten stosujemy więc przede
wszystkim dla cech jakościowych. Wystarczy b o w i e m sprawdzić, że dana jednostka
charakteryzuje się obecnością „ + " lub nieobecnością „-" danego zjawiska. Ogólnie
mówiąc, test znaków, to ustalenie liczby plusów i m i n u s ó w oraz porównanie ich
z wartością teoretyczną podaną w odpowiednich tablicach. Dla danych mierzalnych nie
uwzględniamy wartości różnic, a jedynie ich znaki. Różnice o wartości zero są pomijane.
W teście znaków tracimy więc informację niesioną przez liczbowe wartości różnic. Ta
znacząca informacja jest w pełni wykorzystywana przez test Wilcoxona. Staje się on więc
w tym wypadku testem mocniejszym niż test znaków.

Test kolejności par Wilcoxona uwzględnia zarówno znak różnic, ich wielkość, j a k

również ich kolejność (stąd nazwa). Po uporządkowaniu różnic w szereg rosnący
przypisujemy im rangi. Następnie osobno sumujemy rangi różnic dodatnich i ujemnych.
Mniejsza z otrzymanych sum to wartość testu Wilcoxona, która p o r ó w n a n a z odpowiednią
wartością teoretyczną w tablicach decyduje o odrzuceniu lub nie hipotezy zerowej.

Przykład 4
Przeprowadzono badanie tętna u 20 osób przed i po krótkim (trwającym 3 min) wysiłku
fizycznym. Otrzymane dane z uwzględnieniem płci przedstawiono w poniższej tabeli.

Lp.

1

2

3

4

5

6

7

8

9

10

11

Tętno I

63

77

64

96

66

97

72

66

88

91

68

Tętno II

127

153

127

156

126

265

138

149

159

142

112

Płeć

M

K

M

M

M

K

M

K

K

M

M

Lp.

12

13

14

15

16

17

18

19

20

Tętno I

92

76

80

68

86

70

88

70

65

Tętno II

141

147

137

116

145

121

154

134

142

Płeć

M

K

M

M

K

M

K

K

K

274

background image

Testy nieparametryczne

Czy otrzymane wyniki przeczą hipotezie, że wysiłek w p ł y w a na przyspieszenie tętna?

Najpierw w p r o w a d z a m y dane. Sposób ich przygotowania jest taki s a m j a k dla

testu t. Zapisujemy je w dwu kolumnach, każdą ze z m i e n n y c h w innej kolumnie.

Jako pierwszy zastosujemy test znaków. Po wprowadzeniu danych klikamy OK

uruchamiając analizę. Otrzymujemy arkusz w y n i k ó w przedstawiony na poniższym
rysunku.

Rys 13.9 Arkusz w y n i k ó w testu z n a k ó w

Poszczególne wartości oznaczają:

[1] - nazwy zmiennych
[2] - liczebność grup
[3] - procent liczebności zmiennych, dla których różnica ma wartość ujemną

(znak „-")

[4] - wartość testu z n a k ó w
[5] - p o z i o m istotności dla testu z n a k ó w

M o ż e m y zatem stwierdzić, że z bardzo w y s o k i m p o z i o m e m ufności 1 - 0,000022 =
0,99998 można wykazać wpływ wysiłku fizycznego na przyspieszenie tętna. Potwierdza to
graficznie wykres r a m k o w y przedstawiony na poniższym rysunku.

Rys. 13.10 Wykres r a m k o w y dla danych z przykładu 4

275

background image

Przystępny kurs statystyki

Z kolei zastosowanie testu kolejności par Wilcoxona do danych z przykładu 2 dostarcza
poniższy arkusz wyników.

Rys. 13.11 Arkusz w y n i k ó w dla testu Wilcoxona

Poszczególne wartości oznaczają:

[1] - nazwy zmiennych
[2] - liczebność grup
[3] - wartość testu Wilcoxona dla grup o liczebności n

< lub = 25

[4] - wartość testu Wilcoxona dla grup o liczebności n

> 25

[5] - poziom istotności dla testu Wilcoxona

Otrzymane wyniki dla testu Wilcoxona potwierdzają, że hipotezę o równości rozkładów
zmiennych T E S T I i T E S T I I należy odrzucić i to z p r a w d o p o d o b i e ń s t w e m popełnienia
błędu p = 0,000089.

II 3. Testy dla wielu próbek (nieparametryczne odpowiedniki
analizy wariancji)

Jako trzecią grupę opiszemy testy dla wielu populacji. Należą do nich:

• test A N O V A rang Kruskala-Wallisa
• test A N O V A Friedmana
• test Q Cochrana

Każdy z wymienionych powyżej testów ma inny obszar zastosowań.

Test Kruskala-Wallisa

jest nieparametrycznym odpowiednikiem jednoczynnikowej

analizy wariancji. Za p o m o c ą tego testu sprawdzamy, czy n niezależnych próbek pochodzi
z tej samej populacji, bądź z populacji z taką samą medianą. Poszczególne próbki nie
muszą mieć takiej samej liczebności. Maksymalnie m o ż e m y p o r ó w n y w a ć 10 grup.

Test Friedmana

jest nieparametrycznym odpowiednikiem jednoczynnikowej analizy

wariancji dla pomiarów powtarzanych. U w a ż a n y jest on za najlepszy test nieparametryczny
dla danych tego rodzaju. Najczęściej są to wyniki dla tych samych osób otrzymane
w n (n>2) różnych badaniach, bądź wyniki r ó w n o w a ż n y c h grup osób.

Test Q Cochrana

jest uogólnieniem na więcej niż dwie próby testu M c N e m a r y .

W teście tym m a m y do czynienia z co najmniej trzema z m i e n n y m i zależnymi
i stwierdzamy, czy kolejne liczebności lub proporcje różnią się istotnie między sobą. Test

276

background image

Testy nieparametryczne

wymaga danych dychotomicznych,tzn. przyjmujących wartości zakodowane j a k o 0 i 1 (np.
zdarzenie zaszło lub nie oraz odpowiedź poprawna lub zła). Z m i e n n e mierzalne m u s i m y
więc sztucznie przeskalować na zmienne dychotomiczne (np. powyżej średniej lub
poniżej).

• Jako pierwszy o m ó w i m y przykład zastosowania testu Kruskala-Wallisa.

Przykład 5
Przypuśćmy, że chcemy ocenić cztery metody terapii dla znalezienia najlepszego sposobu
przeprowadzenia leczenia. Każda metoda terapii oceniana jest w umownej skali punktowej.

Dane te powinny być podobnie rozmieszczone j a k w analizie wariancji. Jedna

zmienna W Y N I K I zawiera wyniki oceny, a druga M E T O D A zawierająca kod (numer
metody) do jednoznacznej identyfikacji grup. Sytuację taką widzimy na poniższym
rysunku:

Rys 13.12 O k n o arkusza danych (dane do przykładu 5)

Po uruchomieniu testu (dwukrotnie klikając na nazwie) otrzymujemy następujące okno
dialogowe:

277

background image

Przystępny kurs statystyki

Rys. 13.13 O k n o testu Kruskala-Wallisa

W oknie A N O V A Kruskala-Wallisa i test mediany (Kruskai-Wallis A N O V A and
Median Test)
przyciski o kolejnych numerach [1], [2], [3], [4] realizują następujące
funkcje:

[1] - Kliknięcie przycisku Zmienne spowoduje otwarcie okna wyboru zmiennych.

Okno to umożliwia wybór zmiennych, a także oferuje rozmaite opcje przeglądania
zawartości zbioru danych (więcej informacji na ten temat znajduje się w rozdziale trzecim).
W polu Zmienna (grupująca) niezależna wybieramy zmienną grupującą. Z m i e n n a ta

powinna zawierać co najmniej dwa różne kody, które jednoznacznie identyfikują
przynależność do wybranych prób dla każdego rozpatrywanego przypadku. W polu
zmienna zależna wybieramy listę zmiennych dla odpowiednich porównań. Jeśli
zapomnimy określić zmienne i naciśniemy OK aby rozpocząć statystyczną analizę,
STATISTICA

zapyta o zmienne do analizowania.

[2] - Kody otwiera okno dialogowe do wyboru kodów, które będą używane w grupowaniu

zmiennej.

Rys. 13.14 O k n o wyboru k o d ó w dla testu Kruskala-Wallisa

O k n o to oferuje różnorodne funkcje. Przykładowo przed d o k o n a n i e m wyboru m o ż e m y
przejrzeć wartości pojedynczych zmiennych lub wypełnić pole k o d ó w wartościami dla

jednoznacznej identyfikacji przynależności do interesujących nas grup dla każdego

przypadku. Jeśli nie w p r o w a d z i m y żadnego kodu i naciśniemy OK, program

278

background image

Testy nieparametryczne

automatycznie wypełni pole kodu wszystkimi różnymi wartościami wybranej zmiennej
i zamknie okno dialogu.

[3] - przycisk wywołujący serię okien dialogowych dla utworzenia wykresu Wykres
ramkowy
(„pudełko z wąsami"). Wykres ten charakteryzujący podstawowe właściwości

rozkładu zmiennej jest użytecznym narzędziem do porównywania rozkładu zmiennych
w różnych grupach.

[4] - Skategoryzowany Histogram - opcja ta umożliwia tworzenie skategoryzowanego

histogramu rozkładu wyselekcjonowanej zmiennej. Wykresy skategoryzowane są tworzone
przez podzielenie danych na podzbiory, a następnie odwzorowanie wszystkich podzbiorów
na oddzielnych małych wykresach, rozmieszczonych na j e d n y m obrazie.

W oknie tym znajduje się również pole wyboru Przetwarzanie wsadowe/drukowanie.
Umożliwia ono automatycznie powtarzanie przez program analizy wraz z drukowaniem
rezultatów dla każdej wybranej zmiennej bez dodatkowych działań ze strony użytkownika.
Opcja ta jest aktywna, jeżeli w oknie dialogowym Strona/Ustawienie wydruku j a k o
docelowe dla wyników wybrano Drukarkę, Plik dyskowy i/lub O k n o wyników.

W oknie A N O V A Kruskala - Wallisa i test mediany m a m y ponadto (podobnie

jak w innych oknach dialogowych opisanych wcześniej) dwa przyciski - do selekcji

przypadków i określania wag przypadków. Działanie ich zostało dokładnie opisane
wcześniej.

Przeanalizujemy teraz w programie STATISTICA dane z przykładu 3. Ustawienie
wszystkich potrzebnych opcji i kliknięcie OK powoduje wykonanie analizy i pojawienie
się (jako pierwszego) okna pokazanego poniżej.

Rys. 13.15 Arkusz wyników testu Kruskala-Wallisa

Powyższe okno zawiera wyniki analizy statystycznej. W trzech kolejnych kolumnach
podane m a m y kod, liczbę przypadków oraz sumę rang. Powyżej w nagłówku podana jest
wartość testu Kruskala-Wallisa H= 7,841454 oraz poziom istotności p= 0,0494, który
pozwala na odrzucenie hipotezy wyjściowej (zerowej). Wyniki analizy pozwalają (na
poziomie istotności p = 0,049) wyciągnąć wniosek, że m e t o d y leczenia mają istotnie
statystyczny wpływ na wynik terapii.

279

background image

Przystępny kurs statystyki

Dla interpretacji graficznej wykorzystamy przyciski Wykres r a m k o w y
i Skategoryzowany histogram w oknie A N O V A Kruskala-Wallisa i test mediany. Po
wybraniu rodzaju „pudelka" i wciśnięciu OK otworzy okno z poniższym rysunkiem.

Rys. 13.16 Wykres r a m k o w y dla danych z przykładu 5

W tym samym polu co test Kruskala-Wallisa, znajduje się jego mniej dokładna wersja, test
mediany. STATISTICA oblicza dla każdej z prób liczbę przypadków, które wypadają
powyżej lub poniżej mediany. Następnie wyliczana jest wartość statystyki dla wyników
zawartych w tablicy kontyngencji 2 x n. Test ten stosujemy w sytuacji, gdy skala
pomiarowa zawiera sztuczne ograniczenia i wiele przypadków znajdzie się na krańcach
skali. Dla takiej sytuacji test mediany jest j e d y n y m narzędziem do porównywania prób.

• Jako koleiny o m ó w i m y test Friedmana

Przykład 6
W celu ocenienia różnic między średnimi stężeniami kortyzolu występującymi w kolejnych
etapach leczenia chorych na udar mózgu, zbadano czterokrotnie (w stałych odstępach
czasowych) stężenie kortyzolu (w μg%) u 17 pacjentów. O t r z y m a n e wyniki przedstawione
są w poniższej tabeli. Czy między średnimi stężeniami kortyzolu występują istotne
różnice?

280

background image

Testy nieparametryczne

Hipoteza zerowa, którą chcemy odrzucić, zakłada, że kolumny danych zawierają próby
pobrane z tej samej populacji. D a n e w p r o w a d z a m y kolumnami, tzn. wszystkie wyniki
kolejnych pomiarów zapisane są w nowej kolumnie (nowa zmienna). Po uruchomieniu
testu (dwukrotnie klikając na nazwie) i wybraniu zmiennych otrzymujemy okno dialogowe:

Rys. 13.17 Arkusz wynikowy testu Friedmana

Powyższe okno zawiera wyniki analizy statystycznej. W czterech kolejnych kolumnach
m a m y podane dla każdej zmiennej średnią rangę, s u m ę rang oraz średnią arytmetyczną
i odchylenie standardowe. Powyżej w nagłówku podana jest wartość testu χ

2

A N O V A =

9,232142 oraz p o z i o m

istotności p= 0,02637, który pozwala na odrzucenie hipotezy

wyjściowej (zerowej). Wyniki analizy pozwalają (na poziomie istotności p= 0,026)
wyciągnąć wniosek, że istnieje statystycznie istotna różnica między średnimi stężenia
kortyzolu w kolejnych etapach leczenia. W arkuszu w y n i k o w y m m a m y również obliczony
współczynnik zgodności Kendalla. Statystyka ta opisuje współzależność pomiędzy
n przypadkami skorelowanych prób. Wartość tę wykorzystujemy do oceny zgodności tzw.
niezależnych sędziów.

281

background image

Przystępny kurs statystyki

Dla interpretacji graficznej wykorzystamy przyciski Wykres r a m k o w y w oknie A N O V A
rang Friedmana.
Po wybraniu rodzaju „ p u d e ł k a " i wciśnięciu OK otworzy okno
z rysunkiem pokazane poniżej.

Rys. 13.18 Wykres r a m k o w y dla danych z przykładu 6

• Na koniec przedstawimy test Q Cochrana.

Przykład 7
Piętnastu chorym podawano w szpitalu cztery różne środki na uśmierzenie bólu. Chciano
stwierdzić, czy m o ż e m y je uważać za równie skuteczne. Pacjent oceniał symbolem 0
środek mało skuteczny, a symbolem 1 pełną jego skuteczność. Wyniki oceny zawiera
poniższa tabelka.

282

background image

Testy nieparametryczne

Dane wprowadzamy kolumnami tzn. wszystkie wyniki kolejnych p o m i a r ó w zapisane są
w nowej kolumnie (nowa zmienna). Po uruchomieniu testu (dwukrotnie klikając na
nazwie) i wybraniu zmiennych otrzymujemy następujący arkusz wyników:

Rys. 13.19 Arkusz wyników dla testu Q Cochrana

Powyższe okno zawiera wyniki analizy statystycznej. W trzech kolejnych k o l u m n a c h
podane m a m y : sumę k o d ó w o wartości 1 procent osób oceniających lek negatywnie (kod 0)
oraz procent osób oceniający dany lek pozytywnie (kod 1). Powyżej w nagłówku p o d a n a

jest wartość Q = 1,723404 oraz poziom istotności p= 0,631747, który nie pozwala na

odrzucenie hipotezy wyjściowej (zerowej) o jednakowej wartości wszystkich leków.
Różnica między średnimi m o ż e wynikać z przyczyn losowych.

II4. Korelacje nieparametryczne

Omówienie testów zawartych w module Statystyki Nieparametryczne kontynuujemy
przedstawiając grupę współczynników opisujących nieparametryczne korelacje.
Współczynniki te są nieparametrycznymi odpowiednikami współczynnika korelacji
Pearsona. Należą do nich współczynniki:

• współczynnik R Spearmana
• Tau Kendalla
• G a m m a

Dla obliczenia tych współczynników dwukrotnie klikamy na opcji Korelacje (Spearmana,
tau Kendalla, g a m m a )
w oknie Statystyki nieparametryczne/Rozkłady
(Nonparametrics and Distribution).
Otrzymujemy w ó w c z a s następujące okno dialogowe.

283

background image

Przystępny kurs statystyki

Rys. 13.20 O k n o wyboru korelacji

Do dyspozycji m a m y opcje:

[1] - przycisk Zmienne powodujący otwarcie okna wyboru listy dwu zmiennych. O k n o to

umożliwia wybór zmiennych, a także oferuje rozmaite opcje przeglądania zawartości
zbioru danych (więcej informacji na ten temat znajduje się w rozdziale trzecim).

[2] - lista rozwijalna Korelacja umożliwia wybór współczynnika korelacji, który chcemy

policzyć. Do wyboru m a m y :

• współczynnik korelacji rang S p e a r m a n a - współczynnik ten został obszernie

omówiony na początku tego rozdziału

• współczynnik tau Kendalla-Kendalla) - współczynnik ten opiera się na różnicy

między prawdopodobieństwem tego, że dwie zmienne układają się w tym s a m y m
porządku (dla obserwowanych danych) a prawdopodobieństwem, że ich
uporządkowanie się różni. Z a p r o p o n o w a n y przez Kendalla (1955 r.) wymaga, aby
wartości zmiennych m o ż n a było uporządkować (zmienne muszą być mierzone co
najmniej na skali porządkowej). Współczynnik ten przyjmuje wartości z przedziału <-l,

1>. Wartość 1 oznacza pełną zgodność, wartość 0 brak zgodności uporządkowań,

natomiast wartość -1 całkowitą ich przeciwstawność. Współczynnik Kendalla wskazuje
więc nie tylko siłę, lecz również kierunek zależności. Jest doskonałym narzędziem do
opisu podobieństwa uporządkowań zbioru danych. Dokładniejsze opisanie tego
współczynnika nastąpiło w rozdziale 12.

• statystyka g a m m a - współczynnik ten ma podobną konstrukcję i interpretację j a k

współczynnik R Spearmana lub Τ Kendalla. W y m a g a też p o d o b n y c h założeń. Stosuje
się go w przypadkach, gdy dane zawierają wiele obserwacji powiązanych
(reprezentujących ten sam wariant cechy).

[3] - lista rozwijalna Oblicz

następujące możliwości:

umożliwia wybór sposobu przeprowadzenia obliczeń. M a m y

284

background image

Testy nieparametryczne

• szczegółowy raport - wybór tej opcji powoduje obliczenie nie tylko współczynników

korelacji, ale także dodatkowych informacji o liczbie poprawnych przypadków,
wartości statystyki t i poziomu istotności dla oceny istotności współczynnika korelacji;

• macierz dwóch list - wybranie tej opcji powoduje wyliczenie tylko w s p ó ł c z y n n i k ó w

korelacji pomiędzy wybranymi zmiennymi;

• macierz kwadratowa - wybranie tej opcji powoduje wyliczenie w s p ó ł c z y n n i k ó w

korelacji w postaci macierzy kwadratowej dla wszystkich par wybranych zmiennych.

[4] - przycisk Wykres macierzowy - przycisk ten umożliwia utworzenie m a c i e r z o w e g o

wykresu rozrzutu dla wszystkich wybranych zmiennych. Przykładowy macierzowy wykres
widoczny jest na poniższym rysunku.

Rys. 13.21 Macierzowy wykres rozrzutu

Przykładowe wyliczanie współczynników współzależności przeprowadzimy w oparciu
o dane z przykładu trzeciego. Po wprowadzeniu danych (każda z m i e n n a w osobnej
kolumnie) wybieramy do obliczeń współczynnik korelacji rang Spearmana (z listy
Korelacja). Kliknięcie OK uruchamia obliczenia.

Wyświetlone zostaje okno z wynikami pokazane na rysunku poniżej.

[1] [2] [3] [4] [5]

Rys. 13.22 Arkusz w y n i k ó w obliczania współczynnika Spearmana

285

background image

Przystępny kurs statystyki

Poszczególne wartości oznaczają:

[1] - nazwy zmiennych
[2] - liczebność grup
[3] - wartość współczynnika R Spearmana
[4] - wartość statystyki t sprawdzaj istotność współczynnika R Spearmana
[5] - poziom istotności dla powyższej statystyki t

Uzyskany współczynnik R Spearmana R

s

= 0,936175 wskazuje na silną, istotną

współzależność opinii dwóch lekarzy o stanie zdrowia pacjenta. P o d o b n e wyniki
otrzymujemy, wyliczając współczynnik x Kendalla. Widoczne są one w poniższym oknie.

Rys. 13.23 Arkusz wyników obliczania współczynnika tau Kendalla

Nasze obliczenia m o ż e m y zilustrować na koniec wykresem macierzowym.

Rys. 13.24 Wykres macierzowy dla danych z przykładu 3

II. 5. Test χ

2

i miary na nim oparte

Opcja Tablice 2x2 , chi/V/Fi kwadrat, test McNemary,.. .

umożliwia obliczenie statystyki

χ

2

dla tablic 2x2 oraz innych statystyk

związanych z χ

2

(dokładny test Fishera, test

286

background image

Testy nieparametryczne

M c N e m a r y itd.). Test χ

2

został przez nas dokładnie o m ó w i o n y w rozdziale 12.

Przypomnimy tylko najważniejsze fakty.

Dla tabel dwudzielczych 2x2 postaci wartość statystyki χ

2

w y z n a c z a m y

według prostszego,

praktycznego wzoru:

Zgryz prawidłowy Z g r y z nieprawidłowy R a z e m

Chłopcy

80

70

150

Dziewczynki

50

100

150

R a z e m

130

170

300

Stosujemy ją, jeżeli 20 < N < 4 0 i którakolwiek z liczebności oczekiwanych jest niniejsza
od 5. Dokładne omówienie wszystkich poprawek nastąpi poniżej przy omawianiu, jak
analizy tego typu obliczane są w pakiecie STATISTICA.

Po wybraniu opcji Tablice 2x2, chi/V/Fi kwadrat, test M c N e m a r y , otwiera się

okno do wprowadzania danych postaci:

287

Przykład 8 (Miller[40])
Zebrano dane na temat wad zgryzu u chłopców i dzieci Przebadano 300 losowo wybranych
dzieci w wieku przedszkolnym. Szczegółowe dane przedstawione są w poniższej tablicy.

gdzie N liczebność całej próby

Obliczając χ

2

według wzoru podanego wyżej otrzymujemy χ

2

= 12,217. D l a p o z i o m u

istotności α = 0,001 m a m y wartość krytyczną równą

2

= 10,827. Ponieważ χ

2

>=

2

więc odrzucamy hipotezę zerową o niezależności zmiennych, a tym s a m y m wnioskujemy,
że występowanie wad zgryzu u dzieci ma związek z płcią.

U W A G A !
Dla tabeli 2x2 przedstawionej wyżej statystyka χ

2

j e s t

często modyfikowana w celu

utworzenia bardziej odpowiedniego testu. W większości k o m p u t e r o w y c h p r o g r a m ó w
statystycznych m a m y możliwości obliczenia tych poprawek. Najbardziej popularna to
poprawka Yatesa postaci:

background image

Przystępny kurs statystyki

Rys. 13.25 O k n o wprowadzania danych dla testu %

Po wprowadzeniu danych (przy p o m o c y klawisza T A B ) j a k na p o w y ż s z y m rysunku,
klikamy OK, uruchamiając proces obliczania statystyki. O t r z y m a m y w ó w c z a s następujące
okno z wynikami:

Rys. 13.26 Arkusz w y n i k o w y dla testu χ

2

Poszczególne pola zaznaczone w oknie z wynikami zawierają:

[1] - powtórzona tabela z d a n y m i wraz z s u m a m i brzegowymi oraz procenty wszystkich

wartości wyliczane w stosunku do całkowitej liczebności grupy.

[2] - wartość testu χ

2

w r a z z p o z i o m e m

istotności.

[3] - wartość testu V-kwadrat wraz z p o z i o m e m istotności

288

background image

Testy nieparametryczne

[4] - χ

2

z

poprawką Yatesa - Jest to poprawka statystyki χ

2

dla

małych tabel o rozmiarach

2x2, wraz z podanym obok p o z i o m e m istotności. Poprawka ta stosowana jest, jeżeli
liczebności w tabeli są m a ł e tak, że w ó w c z a s liczebności oczekiwane są mniejsze od
5. Poprawka ta została dokładniej o m ó w i o n a na początku tego rozdziału.

[5] - Współczynnik Φ-Yula postaci Φ

2

= χ

2

/N

Współczynnik ten jest miarą korelacji pomiędzy dwiema zmiennymi jakościowymi
w tabeli 2x2. Przyjmuje on wartości od 0 (brak powiązania między zmiennymi) do 1
(całkowite powiązanie pomiędzy zmiennymi).

[6] - dokładny test Fishera - ten test jest obliczany tylko dla tabel 2x2. Oblicza on przy

założeniu hipotezy zerowej dokładne prawdopodobieństwo otrzymania tabeli
o liczebnościach obserwowanych. Podawane jest zarówno prawdopodobieństwo

jedno, jak i dwustronne. Dokładny test Fishera stosujemy, jeżeli całkowita liczebność

obserwacji jest mała lub jeśli bardzo małe są liczebności oczekiwane.

[7] - wartości testów M c N e m a r y (A/D) i (B/C) wraz z p o z i o m e m istotności. Dokładne

omówienie tego testu nastąpiło w rozdziale 12.

Aby nie zgubić się w gąszczu tych poprawek, p o d a m y w s k a z ó w k ę - kiedy i jaką poprawkę
zastosować.

Liczebności Rodzaj testu

III. Dopasowanie rozkładu

Na samej górze okna Statystyki Nieparametryczne m a m y opcje umożliwiające przejście
do okna dialogowego, realizującego testowanie zgodności rozkładu danych z dowolnie
wybranym rozkładem hipotetycznym. Po jej wybraniu, okno dialogowe zmienia się,
przyjmując postać:

289

background image

Przystępny kurs statystyki

Rys. 13.27 O k n o startowe dopasowywania rozkładów

W

oknie tym istnieje możliwość testowania zgodności rozkładu danych użytkownika

z dowolnym rozkładem.

Do dyspozycji m a m y d w a testy zgodności: test zgodności χ

2

i test

zgodności

Kołmogorowa-Smirnowa. Test zgodności χ

2

m o ż e być użyty tylko wtedy, gdy wszystkie

częstości oczekiwane są zawsze większe niż 5. Jest więc bezużyteczny w stosunku do
próbek o małej liczebności (n<30). W takim w y p a d k u należy zastosować test
Kołmogorowa-Smirnowa. Po wybraniu zmiennej, użytkownik m o ż e d o k o n y w a ć

przełączania dopasowania różnych rozkładów (tego s a m e g o typu, tzn. ciągłych lub
dyskretnych) w oknie opcji Rozkład. Po określeniu zmiennej, obliczane są parametry
dające najlepsze dopasowanie dla każdego z odpowiednich typów rozkładu. Parametry te
są wyświetlane j a k o wartości domyślne. Użytkownik ma także możliwość wprowadzania
własnych wartości.

Najczęstszym zastosowaniem procedur dopasowania jest weryfikacja założenia
o normalności rozkładu. Taki też przykład przeanalizujemy.

290

background image

Testy nieparametryczne

Przykład 9
Badano wartości H C 0 3 w organizmie 35 chorych. O t r z y m a n o następujące wyniki:

19,30; 21,60; 16,50; 28,50; 22,80; 13,40; 24,90; 20,20; 18,00; 18,30; 29,40; 21,20;
17,70; 18,30; 24,00; 18,50; 19,60; 21,80; 22,10;16,20; 20,70; 18,20; 23,00; 18,50;
15,90; 15,60; 23,90; 21,80; 18,00; 25,90; 21,90; 18,70; 21,30; 19,80; 22,80.

Chcemy sprawdzić, czy zmienna losowa H C 0 3 ma rozkład normalny. Po wprowadzeniu
danych i wyborze rozkładu hipotetycznego klikamy OK. Otworzy się w ó w c z a s następujące
okno dialogowe:

Rys. 13.28 O k n o opcji dopasowywania rozkładu ciągłego

Po zaakceptowaniu (lub zmianie) parametrów domyślnych klikamy OK - otwierając tym
samym okno z wynikami analizy statystycznej. O k n o to przedstawione jest na poniższym
rysunku.

Ponieważ χ

2

= 4,971 o r a z p = n.s.

więc nie ma podstaw do odrzucenia hipotezy zerowej, że

badana cecha - p o z i o m H C 0 3 - ma rozkład normalny. Otrzymane wynik m o ż e m y
zilustrować na wykresie, klikając przycisk Wykres. Rodzaj wykresu określają poniżej
podane opcje:

• Wykres rozkładu - opcja ta pozwala utworzyć wykres rozkładu liczebności lub

rozkładu liczebności skumulowanych.

• Wykres liczebności - opcja ta pozwala utworzyć wykres w oparciu

o liczebności surowe lub odsetkowe (%)

291

background image

Przystępny kurs statystyki

Rys 13.29 Arkusz wynikowy dopasowywania rozkładów

Poniższy wykres (utworzony przy wyborze opcji Rozkład liczebności) graficznie
interpretuje uzyskane wyniki.

d Kołmogorowa-Smirnowa=,0856779 , p= n.s.

11 13 15 17 19 21 23 25 27 29 31

12 14 16 18 20 22 24 26 28 30 Oczekiwana

Rys. 13.30 Wykres histogram dla danych z przykładu 9

292


Wyszukiwarka

Podobne podstrony:
testy nieparametryczne
Testy nieparametryczne cz I medycyna praktyczna
15 testy nieparametryczne
Wyklad 9 statystyka testy nieparametryczne
Testy nieparametryczne
Testy nieparametryczne II
Wykład 6 Analiza wariancji Testy nieparametryczne
2009 2010 STATYSTYKA TESTY NIEPARAMETRYCZNEid 26681
Wykład 5 Testy nieparametryczne dla dwóch prób niezależnych (U Manna Whitneya, Kołmogorowa Smirnow
testy nieparametryczne wybrane 2
wyklad10 testy nieparametryczne
13 Testy 343 [01] 0X 091 Arku Styczen 2009id 14837
Testy nieparametryczne
testy nieparametryczne
13 TESTY Prąd Traberta, Prąd Bernarda
testy nieparametryczne

więcej podobnych podstron