prezentacja 3 Stat 2014

background image

Podstawy statystyki vol. 3

background image

TESTOWANIE HIPOTEZ

• Aby porównać ze sobą dwie

statystyki (średnie, mediany) z próby
stosuje się testy istotności.

• Mówią one o tym czy uzyskane

wyniki są rzeczywiste czy wynikają z
błędu pomiaru.

background image

Na przykład

• Porównanie średniej ocen pewnego

ucznia ze średnia w całej klasie.

• Porównanie skuteczności dwóch metod

badawczych.

• Sprawdzenie różnic miedzy

rozwiązywaniem zadania w warunkach

stresu i relaksu.

• Badanie różnic miedzy kobietami a

mężczyznami w nasileniu depresyjności.

background image

Hipoteza zerowa

• To twierdzenie o braku różnic.
• Np. uzyskujemy średnie z dwóch

grup osób badanych. Hipoteza
zerowa:

background image

Test istotności

• Jest testem hipotezy zerowej. Pokazuje

jakie jest prawdopodobieństwo, że

otrzymane różnice sż wynikiem błędu.

• Kolejne kroki wnioskowania statystycznego:

– Zakładamy hipotezę zerowa

– Badamy dane empiryczne

– Szacujemy jakie jest prawdopodobieństwo

uzyskania różnicy równej lub większej niż

otrzymana przy losowym pobieraniu prób z

populacji przy założeniu prawdziwości H0.

– Przy małym – odrzucamy H0. Mówimy ze wynik

jest istotny.

background image

Hipoteza alternatywna

background image

Jakie błędy można popełnic?

• Błąd I rodzaju (alfa) – przyjęcie H1,

gdy H0 jest prawdziwa

• Bład II rodzaju (beta) – odrzucenie

H1, gdy jest ona prawdziwa

• Przyjmowane poziomy istotności –

oznaczają, że istnieje x% szans na to,

że przyjęcie hipotezy alternatywnej

jest wynikiem błędu

background image

Błąd I rodzaju

• Przy testowaniu/weryfikacji hipotez możemy

popełnić błąd pierwszego rodzaju. Błąd ten

popełniamy wtedy, gdy na podstawie

przeprowadzonej analizy statystycznej

stwierdzamy, że uzyskane wyniki są istotne

statystycznie a są one w rzeczywistości nieistotne

statystycznie.

Na popełnienie takiego błędu narażamy się wtedy,

gdy na przykład: stosujemy nieodpowiednie testy

statystyczne do weryfikacji hipotez, stosujemy dany

test statystyczny, pomimo tego, że założenia nie

zostały spełnione, aby wykonać dany test.

W praktyce oznacza to, że popełniliśmy błąd w

analizie i na tej podstawie wnioskujemy

prawdziwość postawionej hipotezy, a w

rzeczywistości nie możemy tego stwierdzić.

background image

Błąd II rodzaju

• Przy testowaniu/weryfikacji hipotez możemy

popełnić błąd drugiego rodzaju. Błąd ten

popełniamy wtedy, gdy na podstawie

przeprowadzonej analizy statystycznej

stwierdzamy, że uzyskane wyniki są nieistotne

statystycznie, a są one w rzeczywistości istotne

statystycznie.

Na popełnienie takiego błędu narażamy się wtedy,

gdy na przykład: stosujemy nieodpowiednie testy

statystyczne do weryfikacji hipotez, stosujemy zbyt

restrykcyjnie ograniczenia dla analizy wyników.

W praktyce oznacza to, że popełniliśmy błąd w

analizie i na tej podstawie wnioskujemy fałszywość

postawionej hipotezy, a w rzeczywistości

moglibyśmy stwierdzić, że wyniki są istotne

statystycznie.

background image

Testy bezkierunkowe

• Aby odrzucić hipotezę zerową na

poziomie istotności (przykładowo)
0,05, musimy sprawdzić, czy dany
wynik nie leży (w przypadku rozkłądu
normalnego) w przedziale +/-1,96
odchylenia standardowego

background image

Kryteria wyboru testu

istotności różnic dla dwóch

prób

• Aby wybrać odpowiedni test istotności

różnic dla dwóch prób należy

rozpatrzeć następujące kryteria:

– · Skala pomiarowa zmiennej zależnej
– · Normalność rozkładu zmiennej zależnej
– · Charakter grup porównawczych

(niezależne vs zależne)

– · Liczebność porównywanych grup
– · Homogeniczność wariancji rozkładów

zmiennej zależnej

background image

background image

Testy istotności dla jednej

średniej

• W celu porównania danego wyniku

(średniej z próby) ze średnią z
populacji

• Na przykład czy średnia ocen ze

statystyki w naszej grupie różni się od
średniej ze wszystkich grup tego roku

• Jeśli znamy średnią i SD w populacji,

możemy odnieść się do rozkładu
normalnego i użyć wzoru:

background image

Przykład 1

• W 25 osobowej grupie osób

badanych średnia IQ = 110. SD = 14.
Czy różni się od populacji (X = 100,
SD = 15)?

background image

Przykład 1

• W 25 osobowej grupie osób badanych średnia

IQ = 110. SD = 14. Czy różni się od populacji
(X = 100, SD = 15)?

z = (110 – 100)/(15/pierw25) = 3,33

• Wartość z leży poza granicami 1,96 i 2,58.

Zatem różnica jest istotna statystycznie.

background image

• Gdy znamy tylko średnią w populacji, ale

SD nie, to odnosimy się do rozkładu t

• Szacujemy błąd standardowy
• Stosujemy wzór:

(Mianownik – SE – błąd standardowy)

Testy istotności dla jednej

średniej

background image

Przykład 2

• W klasie 25 osobowej średni IQ=110

a SD=14. Czy różni się od IQ w
populacji (średnia = 100)?

• Szacujemy błąd standardowy

background image

Przykład 2

• W klasie 25 osobowej średni IQ=110

a SD=14. Czy różni się od IQ w
populacji (średnia = 100)?

• Szacujemy błąd standardowy

SE = s/√N=14/√25 = 2,8

t = (110 – 100)/2,8 = 3,57

Jakie wnioski?

background image

Wnioski do zadania

• Wartość t przy df = 24 wynosi 2,064

(dla p=5%) i 2,797 (p=1%)

• Różnica jest istotna

background image

Test kierunkowy

• Wykorzystujemy tylko połowę rozkładu
• W rozkładzie normalnym 5% obszaru

znajduje się powyżej z=1,64

• 1% obszaru znajduje się powyżej z=2,33
• Cel – przewidujemy kierunek zależności
• Działanie – porównujemy uzyskany

wynik z odpowiednimi wartościami dla
5% obszaru po prawej stronie rozkładu

background image

Zadanie

• W próbie 16 studentów, średni wynik

na egzaminie wynosił 15, a s = 3.

• Czy wynik ten różni się od średniej

wśród wszystkich studentów równej
18?

• Zastosuj test kierunkowy dla 5%

poziomu istotności.

background image

• Dane na skali ilościowej
• Podobna liczebność w grupach

• Zasada normalności rozkładu

Test t dla 2 prób

niezależnych

background image

Testy zgodności

• Do najczęściej formułowanych hipotez tego

rodzaju należy hipoteza o  normalności
rozkładu zmiennej losowej ciągłej X:
H0: X ma rozkład normalny N(m, sigma)
przy hipotezie alternatywnej:
H1: X nie ma rozkładu normalnego N(m,
sigma)
gdzie m i sigma (wartość oczekiwana i 
odchylenie standardowe) to parametry
rozkładu normalnego.

background image

Dlaczego?

• W hipotezie zerowej zakładamy, że n-elementowa

próba losowa pochodzi ze zbiorowości generalnej,

w której rozkład obserwowanej zmiennej losowej jest

normalny.

• Rozkład normalny jest bowiem jednym

z najważniejszych rozkładów. Rozwiązanie wielu

zagadnień statystycznych jest "prostsze", jeśli

analizowana cecha ma rozkład normalny. Wiele

analiz statystycznych i testów wymaga też założenia

o normalności rozważanej zmiennej (testy t-

Studenta, analiza wariancji, analiza regresji, analiza

kanoniczna itd.).

• Dlatego musimy przeprowadzić weryfikację

charakteru rozkładu, ilekroć chcemy zastosować

analizy statystyczne, które wymagają danych

o określonym rozkładzie.

background image

Testy

• test Kołmogorowa i Smirnowa

Test ten opiera się na porównaniu procentów

skumulowanych zaobserwowanych z oczekiwanymi.

Jako wartość testu podawana jest maksymalna

różnica bezwzględna pomiędzy zaobserwowanymi

i oczekiwanymi procentami skumulowanymi. Test ten

wymaga jednak znajomości parametrów rozkładu

(średniej i odchylenia standardowego całej populacji).

Gdy ich nie znamy, a tak jest najczęściej, stosujemy

test Kołmogorowa i Smirnowa z poprawką Lillieforsa.

• test W Shapiro i Wilka

Test ten jest najbardziej polecany, ze względu na

dużą moc. Można go również stosować do małych

prób.

Jeśli statystyki okażą się istotne (tzn. p <0,05), to

odrzucamy hipotezę zerową o zgodności danych

z rozkładem normalnym. Oznacza to, że dana

zmienna (cecha) nie ma rozkładu normalnego.

background image

Homogeniczność wariancji

• Jednym z założeń testów parametrycznych, np.:

testy t, analiza wariancji jest homogeniczność

wariancji. Homogeniczność możemy tutaj rozumieć

jako równość, jednolitość. Dokładniej, porównywane

ze sobą grupy, za pomocą testów parametrycznych

powinny mieć podobne wariancje. Oznacza to,

różnorodność uzyskanych wyników w

poszczególnych grupach powinna być podobna.

Aby zweryfikować, czy grupy mają podobne

wariancje, czyli czy zachowana jest homogeniczność

wariancji w grupach wykonuje się dodatkowe testy

statystyczne. Jednym z takich testów jest test

Levene'a.

Jeżeli wynik testu Levene'a jest istotny statystycznie

oznacza to, że wariancje nie są podobne.

background image

Test Fishera

• Stosujemy wzór:

• Liczba stopni swobody to:

v1 = n1 – 1
V2 = n2 - 1

• Z tablic odczytujemy wartość krytyczną
http://www.pomocstatystyczna.pl/tablice_

f.html

background image

Test Levene’a

Gdzie: Ni - liczebność i-tej próbki,
xi - średnia i-tej próbki;
Zij - wartość bezwzględna odległości pomiaru j-tej
osoby z i-tej próbki od wartości średniej;
                         

background image

Dwie próby niezależne

• Jeżeli założenie o równości jest

uzasadnione to stosuje się wzór na
wspólna wariancje

• Jeśli nie, używamy testu Coxa-Cochrana

background image

Dwie próby niezależne

• Nastepnie oblicza sie wspólny bład

standardowy:

• Liczba stopni swobody = N1 + N2 - 2

background image

Dwie próby niezależne

• Wreszcie liczymy statystykę t

background image

Zadanie 1

• Oceniano szczury odnośnie długości

zębów. Sprawdź testem t-studenta, czy

grupy różnią się istotnie między sobą:

• A: 16, 9, 4, 23, 19, 10, 5, 2
• B: 20, 5, 1, 16, 2, 4

• Opisz kolejne kroki postępowania. Czy

można w ogóle zastosować ten test?

background image

Zadanie 2

• Zastosuj test kierunkowy dla

poniższych danych:

• A: 1, 6, 9, 6, 8
• B: 7, 9, 12, 15, 8, 10, 9
• (załóżmy, że grupy są równoliczne,

pomimo, że nie są ;) )

background image

Początek pracy

• Stawiamy sobie hipotezę badawczą!

• H0 – nie ma różnic
• H1 – są różnice (jakie?)

background image

Test t-studenta dla grup

niezależnych

1. Czy są spełnione założenia?

background image

Test t-studenta dla grup

niezależnych

1. Czy są spełnione założenia?

a) Skala pomiarowa zmiennej zależnej

przedziałowa / ilorazowa

b) Normalność rozkładu zmiennej zależnej
c) Liczebność porównywanych grup

background image

Test t-studenta dla grup

niezależnych

1. Czy są spełnione założenia?

a)

Skala pomiarowa zmiennej zależnej przedziałowa / ilorazowa

b)

Normalność rozkładu zmiennej zależnej

c)

Liczebność porównywanych grup

d) Homogeniczność wariancji rozkładów

zmiennej zależnej

background image

1.d) Homogeniczność wariancji

rozkładów zmiennej zależnej

• Hipoteza zerowa:

wariancje są równe

background image

1.d) Homogeniczność wariancji

rozkładów zmiennej zależnej

• Stosujemy wzór:

• Liczba stopni swobody to:

v1 = n1 – 1
V2 = n2 - 1

• Z tablic odczytujemy wartość krytyczną
http://www.pomocstatystyczna.pl/tablice_

f.html

background image

1.d) Homogeniczność wariancji

rozkładów zmiennej zależnej

• Jeśli uzyskany wynik łapie się w

przedziale ufności (jest mniejszy od
wartości F granicznego), możemy robić
test t studenta

• Jeśli nie, używamy poprawki na

niehomogeniczne wariancje

background image

Dodatek do homogeniczności

wariancji

• Jeśli nie ma spełnionego założenia o

homogeniczności wariancji, możemy
także:

– Stosować poprawkę Welcha
– Stosować poprawkę Cox-Cochrana

• Obniża się liczba stopni swobody
• W przypadku analizy SPSS odczytuje się inne

wyniki

background image

Test t z poprawką Welcha

Liczba stopni swobody:

background image

Test t-studenta dla grup

niezależnych

1. Czy są spełnione założenia?

a)

Skala pomiarowa zmiennej zależnej przedziałowa / ilorazowa

b)

Normalność rozkładu zmiennej zależnej

c)

Liczebność porównywanych grup

d)

Homogeniczność wariancji rozkładów zmiennej zależnej

TAK

2. Liczymy wspólną wariancję

background image

Test t-studenta dla grup

niezależnych

3. Wspólny błąd standardowy:

• Liczba stopni swobody = N1 + N2 -

2

background image

Test t-studenta dla grup

niezależnych

4. Liczymy wynik testu t

background image

Test t-studenta dla grup

niezależnych

• Sprawdzamy z tablicami, czy wynik

testu leży poza wartością t dla
przyjętego poziomu p.

• Jeśli tak, wynik jest istotny

statystycznie

• Jeśli nie, przyjmujemy hipotezę

zerową (brak różnic)

background image

A co, jeśli rozkład nie jest

zbliżony do rozkładu

normalnego?

• test U Manna i Whitneya
• test Kołmogorowa i Smirnowa
• test serii Walda i Wolfowitza

background image

Kiedy U Mann-Whitney?

• Stosujemy go w celu porównania dwóch grup

danych, gdy:

– dane są mierzalne (ilościowe), ale ich rozkład

zdecydowanie odbiega od rozkładu normalnego (czyli nie

jest spełnione założenie testu t-Studenta) - w takim

przypadku możemy hipotezę zerową formułować jako brak

istotnej różnicy średnich arytmetycznych; oczywiście test

Manna i Whitneya możemy też zastosować do danych

spełniających założenia testu t-Studenta; pamiętajmy

jednak, że jego moc wynosi wówczas około 95% mocy

testu t-Studenta;

– dane są typu porządkowego - w tym przypadku hipoteza

zerowa zakłada, że badane grupy pochodzą z tych samych

populacji, tzn. rozkłady danych w analizowanych grupach

nie różnią się istotnie; dla danych porządkowych nie

można bowiem obliczać wartości średniej, a prawidłową

miarą tendencji centralnej jest mediana.

background image

Test U Manna-Whitneya

• Co ciekawe, z tego testu możemy skorzystać

również, gdy zmienna jest mierzona na skali
dychotomicznej (czyli 0-1), dlatego, że jest
to przypadek zmiennej nominalnej, która
jest zarazem zmienną porządkową.

• Zastosowanie testu U Manna-whitneya nie

wymaga równoliczności grup, rozkładu
normalnego czy też homogenicznych
wariancji. To sprawia, że może być on
szeroko stosowany.

background image

Test U Manna-Whitneya

• Podstawową wadą tego testu jest fakt, że test

nie bierze pod uwagę wariancji wyników w

badanych grupach. To sprawia, że grupy

mogą mieć różną wariancję wyników, co

może nie zostać "wykryte" przez test,

podczas gdy testy parametryczne biorą to

pod uwagę. Ogólnie rzecz ujmując, test U

Manna-Whitneya ma słabszą moc

interpretacyjną uzyskanych danych. W

porównaniu do testu t-Studenta należy

zachować większą ostrożność w

interpretowaniu uzyskanych wyników.

background image

Jak to się robi?

– Punktem wyjścia w teście U Manna-Whitneya

jest nadanie wynikom obserwacji rang. Z tego

powodu test ten znany jest również (zwłaszcza

w czasopismach zagranicznych) pod nazwą

testu Wilcoxona dla sumy rang.

– Rangowanie przeprowadzamy następująco:
1. Porządkujemy rosnąco wartości obu prób.
2. Zaczynając od wartości najmniejszej,

przyporządkowujemy poszczególnym

obserwacjom kolejne liczby naturalne.

3. W przypadku wystąpienia wartości

jednakowych przyporządkowujemy im tzw. rangi

wiązane (średnia arytmetyczna z rang, jakie

powinno im się przypisać).

background image

Przykład

• Przypuśćmy, że w dwóch grupach

osób cierpiących na pewną chorobę
zbadano stężenie adrenaliny w
surowicy.

background image

Przykład

• Chcemy zweryfikować hipotezę, że

stężenie adrenaliny w obu grupach
jest jednakowe. Ponieważ zmienna
"stężenie adrenaliny" nie ma
rozkładu normalnego, nie możemy
zastosować testu t-Studenta,
posłużymy się więc jego
nieparametrycznym odpowiednikiem.

background image

Test U Manna-Whitneya

gdzie:
R oznacza sumę rang
n1, n2 oznacza liczebność w badanych grupach

Należy podkreślić, że należy obliczyć statystykę U zarówno dla R1
(suma rang w I grupie) jak i dla R2 (suma rang w II grupie).
Mniejsza z dwóch wartości U stanowi statystykę U., a istotnośc
statystyczna odczytywana jest z tabel

background image

Test U Manna-Whitneya

• Dalej, dla próby większej 20, stosuje

się inny wzór, z założeniem, że dla
próby większej niż 20, rozkład U jest
w przybliżeniu normalny. Wzór ten
ma postać:

background image

Inne testy

nieparametryczne

• Do doczytania:

http://www.mp.pl/artykuly/index.php?

lid=356

background image

background image

Grupy zależne

background image

Test t-studenta dla grup

zależnych

Ideą testu t-Studenta dla prób zależnych jest

porównanie ze sobą tej samej grupy
osób, obserwacji dwukrotnie. Nasze grupy
(próby) są wobec siebie zależne, ponieważ
wynik w drugim badaniu jest zależny od
wyniku w drugim badaniu, ponieważ
dotyczy tej samej osoby, obserwacji.

Celem testu t-Studenta jest określenie

wielkości zmian w danym pomiarze wśród
badanych osob, obserwacji.

background image

Test t-studenta dla grup

zależnych

Przykład: Grupa koleżanek chciała

sprawdzić, czy kolejna dieta cud jest
skuteczna. Przed zastosowaniem
diety każda z nich zważyła się. Po
dwutygodniowym stosowaniu diety
ta sama grupa dziewczyn zważyła się
ponownie. Aby stwierdzić, czy dieta
cud jest skuteczna należy
zastosować test t dla prób zależnych

background image

Test t-studenta dla grup

zależnych

• Inny przykład:

Przypuśćmy, że w pewnej grupie osób mierzymy

ciśnienie tętnicze przed podaniem i po podaniu leku.

Chcemy uzyskać odpowiedź na pytanie, czy lek ten

powoduje istotny spadek ciśnienia u pacjentów. Mamy

dwie serie pomiarów dotyczących tej samej próby

(czyli grupy pacjentów) - przed podaniem i po podaniu

leku - i chcemy zweryfikować hipotezę o średniej

wielkości różnic między tymi wynikami. Pierwsza seria

danych to wyniki pomiarów badanej cechy w jednym

momencie, druga - to wyniki pomiarów tej samej

cechy u tych samych pacjentów w innym momencie.

background image

Test t-studenta dla grup

zależnych

• Przykładowe wyniki przed (A) i po leczeniu (B)

• Chcemy zweryfikować hipotezę, że

zastosowany lek powoduje istotny spadek
ciśnienia tętniczego u leczonych pacjentów. W
tym celu zastosujemy testy dla zmiennych
powiązanych.

background image

Test t-studenta dla grup

zależnych

background image

Test t-studenta dla grup

zależnych

• Warunki stosowania testu t-Studenta

dla zmiennych zależnych są
identyczne jak dla testu t-Studenta
dla zmiennych niezależnych, z jedną
różnicą - nie musimy sprawdzać
jednorodności wariancji.

background image

Test t-studenta dla grup

zależnych

• Wzory

background image

Zobrazowanie graficzne

background image

Testy nieparametryczne dla

grup zależnych

• test znaków
• test kolejności par Wilcoxona
• test McNemary

background image

• Stosujemy je, gdy dysponując dwoma pomiarami

(przed jakimś wydarzeniem i po), chcemy dowieść,

że pomiary te się różnią.

• Inaczej mówiąc, testy te są przeznaczone do

sprawdzania istotności różnic między dwoma

zależnymi pomiarami. Te dwa zależne pomiary to

albo dwie obserwacje u tej samej osoby (np. przed

zabiegiem i po), albo obserwacje u par osób o tych

samych właściwościach (tzw. równoważne dwójki).

• Hipoteza zerowa mówi, że wyniki obu pomiarów są

jednakowe. Testy te stosujemy również wtedy, gdy

nie są spełnione założenia testu t dla zmiennych

powiązanych. Za ich pomocą możemy stwierdzić,

czy próby różnią się między sobą pod względem

pewnych własności.

• Te łatwe w użyciu testy wymagają jedynie

założenia, że wartości badanych zmiennych

możemy uporządkować (są mierzalne na skali

porządkowej).

background image

a) Test znaków

• Test ten oparty jest na znakach różnic między kolejnymi parami

wyników (czy są ujemne, czy dodatnie). Otrzymamy ustaloną

liczbę wyników w jednym zbiorze, które są mniejsze od swych

odpowiedników w drugim zbiorze oraz liczbę wyników, które są

większe. Tym samym dowiadujemy się, ile danych zostało

"przesuniętych" w jednym kierunku w naszym eksperymencie. Gdy

wszystkie, to w porządku. Test daje wynik istotny. Gdy tak nie jest,

to sytuacja przestaje być oczywista. Jednak możemy podać

prawdopodobieństwa związane ze wszystkimi proporcjami

(wystąpienia znaków +/-), które mogłyby wystąpić. Znając więc

prawdopodobieństwo każdej naszej kierunkowej zmiany, możemy

ocenić, czy nasze wyniki są istotne.

• Podsumowując, test znaków to ustalenie liczby plusów i minusów

oraz porównanie ich z wartością teoretyczną podaną w

odpowiednich tablicach. Test ten stosujemy więc przede wszystkim

dla cech jakościowych. Wystarczy bowiem sprawdzić, że dana

jednostka charakteryzuje się obecnością ("+") lub nieobecnością

("-") danego zjawiska. Dla danych mierzalnych nie uwzględniamy

wartości różnic, lecz jedynie ich znaki. Różnice o wartości zero są

pomijane.

background image

Przykład

• Załóżmy, że przeprowadziliśmy badanie

ciężaru ciała w grupie 20 kobiet przed 7-

tygodniową dietą odchudzającą i po niej.

• Chcemy sprawdzić, czy otrzymane wyniki

przeczą hipotezie, że dieta nie powoduje

zmniejszenia ciężaru ciała.

background image

Przykład

Poszczególne wartości oznaczają:
– [1] - nazwy zmiennych
– [2] - liczebność grup
– [3] - procent liczebności zmiennych, dla których różnica ma

wartość ujemną (znak "-")

– [4] - wartość testu znaków
– [5] - poziom istotności dla testu znaków

background image

Test Wilcoxona

• W teście znaków tracimy informację niesioną przez

liczbowe wartości różnic. Ta informacja jest w pełni

wykorzystywana przez test Wilcoxona. Staje się on

więc w tym wypadku testem mocniejszym niż test

znaków, jest więc godny uwagi.

• Test kolejności par Wilcoxona uwzględnia znak różnic,

ich wielkość, jak również ich kolejność (stąd nazwa).

Po uporządkowaniu różnic w szereg rosnący

przypisujemy im rangi. Następnie osobno sumujemy

rangi różnic dodatnich i ujemnych. Mniejsza z

otrzymanych sum to wartość testu Wilcoxona, która

po porównaniu z odpowiednią wartością teoretyczną

w tablicach decyduje o odrzuceniu hipotezy zerowej

lub nie.

background image

Przykład

• Te same dane

– [1] - nazwy zmiennych
– [2] - liczebność grup
– [3] - wartość testu Wilcoxona dla grup n =<25
– [4] - wartość testu Wilcoxona dla grup n >25
– [5] - poziom istotności dla testu Wilcoxona

• Zwróćcie uwagę na poziom istotności!

background image

Test znaków a Wilcoxona

• Chcemy na podstawie tych danych dokonać

oceny skuteczności szczepienia. Jak wyniki,
test znaków daje wynik nieistotny (p =
0,131), podczas gdy test kolejności par
Wilcoxona okazuje się istotny (p = 0,0346)

background image

Jaki test wybrać?

– Zawsze kiedy możemy mówić o różnicach elementów, bardziej

pożądany będzie test Wilcoxona. Jednakże na podstawie testu

Wilcoxona widać, że czasami możliwe jest otrzymanie

nieistotnej różnicy pomiędzy zbiorami danych, gdy jest wiele

czynników rosnących (lub malejących), ale różniących się tylko

nieznacznie, a pojedynczy duży wynik "w przeciwnym

kierunku" decyduje o nieistotności. Zachęca on tym samym

badacza do wyciągnięcia wniosku, że dane pochodzą z jednej

populacji. Taki pojedynczy wynik nazywamy "samotnikiem".

Czy taki pojedynczy, ekstremalnie wielki wynik może być

odrzucony podczas analizy? Jeśli jesteśmy całkowicie pewni, że

ten w jakiś sposób nietypowy element możemy odrzucić,

zróbmy to. Jeśli nie możemy usprawiedliwić tej decyzji, nie

róbmy tego, aby nie być posądzonym o naciąganie danych.

– Czasami jednak dane mogą być faktycznie wyrażone tylko

słownie, jak na przykład ocena dotycząca jakiejś metody -

"lepsza", "taka sama", "gorsza". Zawsze kiedy możemy ustalić,

że wyniki rosną (lub maleją), ale nie jesteśmy w stanie określić

ilościowo tego przyrostu, wówczas test znaków jest jedynym do

zastosowania. Test znaków jest zatem narzędziem użytecznym

dla wielu typów badań w naukach medycznych, w których

gromadzi się dane nieliczbowe.

background image

Sprawdzanie rozkładu

normalnego

background image

Testy zgodności

• Testy zgodności dotyczą postaci rozkładu

teoretycznego badanej zmiennej losowej skokowej

lub ciągłej. Weryfikują one stawiane przez badaczy

hipotezy dotyczące rozkładu zmiennej losowej.

• Celem tych testów jest porównanie rozkładów

dwóch cech w jednej populacji lub jednej cechy w

dwóch populacjach. Są to oczywiście dwa różne

zagadnienia, jednakże metody obliczeniowe są w

obu przypadkach podobne. Idea tych testów jest

oczywista - jeśli jakaś cecha w dwóch populacjach

ma taki sam rozkład, to wartości liczbowe pewnych

statystyk (np. średnia, mediana) dla obu populacji

powinny się niewiele różnić. Jeśli jednak wartości te

będą istotnie różnie, to mamy prawo sądzić, że

cecha ma odmienny rozkład w różnych populacjach.

background image

• Do najczęściej formułowanych hipotez tego

rodzaju należy hipoteza o normalności
rozkładu zmiennej losowej ciągłej X:

H0: X ma rozkład normalny N(m, sigma)

przy hipotezie alternatywnej:

H1: X nie ma rozkładu normalnego N(m,

sigma)

gdzie m i sigma (wartość oczekiwana i

odchylenie standardowe) to parametry
rozkładu normalnego.

background image

Testy weryfikującw normalność

rozkładów:

• test Kołmogorowa i Smirnowa

Test ten opiera się na porównaniu procentów

skumulowanych zaobserwowanych z oczekiwanymi.

Jako wartość testu podawana jest maksymalna

różnica bezwzględna pomiędzy zaobserwowanymi i

oczekiwanymi procentami skumulowanymi. Test ten

wymaga jednak znajomości parametrów rozkładu

(średniej i odchylenia standardowego całej populacji).

Gdy ich nie znamy, a tak jest najczęściej, stosujemy

test Kołmogorowa i Smirnowa z poprawką Lillieforsa.

• test W Shapiro i Wilka

Test ten jest najbardziej polecany, ze względu na

dużą moc. Można go również stosować do małych

prób.

• Test chi-kwadrat Pearsona

background image

Test

• W celu weryfikacji hipotezy o normalności

rozkładu wyniki próby dzielone są na

rozłączne klasy, a następnie porównuje się

liczebności: obserwowaną i oczekiwaną w

każdej z tych klas. Jeśli liczebności te różnią

się istotnie, to prawdopodobnie dana próba

nie pochodzi z populacji, w której rozkład

obserwowanej zmiennej losowej jest

normalny. We wszystkich tych testach, jeśli

statystyki okażą się istotne (tzn. p <0,05), to

odrzucamy hipotezę zerową o zgodności

danych z rozkładem normalnym. Oznacza to,

że dana zmienna (cecha) nie ma rozkładu

normalnego.

background image

Przykład

• Na przykład sprawdzimy, czy

zmienne "wiek" i "waga" mają
rozkład normalny. Wartości tych
zmiennych dla 20-elementowej próby
podaje tabela

background image

background image

Jeżeli rozkład jest normalny, wówczas punkty powinny
leżeć na linii prostej (lewa strona); w przeciwnym razie
punkty odchylają się od prostej (prawa strona). Na
wykresie tym mogą ujawnić się również punkty odstające.
Wykres ten pozwala więc ocenić odstępstwa rozkładu
empirycznego od rozkładu normalnego, dlatego nazywany
jest testem "na rzut oka", sprawdzającym normalność
rozkładu analizowanej zmiennej. Im bardziej bowiem
wszystkie punkty układają się na prostej, tym bardziej
mamy prawo sądzić, że dany rozkład jest normalny.

background image

Box and whiskers

Skrzynki z wąsami (wykres skrzynkowy Tukey’a), pokazujące

zakresy wybranej zmiennej (zmiennych) oraz statystyki

opisowe (średnia, mediana, odchylenie standardowe lub

błąd standardowy). Na wykresie mogą również być

wykreślone odstające punkty danych.

Możemy utworzyć cztery grupy wykresów ramkowych w

zależności od wybranej opcji:

• punkt centralny - mediana, ramka - kwartyle, wąsy - rozstęp

• punkt centralny - średnia, ramka - błąd standardowy, wąsy -

odchylenie standardowe

• punkt centralny - średnia, ramka - odchylenie standardowe,

wąsy - 95% przedział ufności dla poszczególnych obserwacji

wokół średniej

• punkt centralny - średnia, ramka - błąd standardowy, wąsy -

95% przedział ufności dla wartości średniej

background image

background image

Analiza wariancji

• Czyli co zrobić, gdy porównywanych

grup jest więcej niż dwie?

background image

Przykład

• U losowo wybranych pacjentów mierzymy temperament

czterema różnymi testami.

• Chcemy porównać wartości średnie temperamentu dla

każdego testu. Wydawałoby się, że wystarczy

przeprowadzić test t-Studenta dla każdej pary średnich.

Nie możemy tak jednak postąpić. Przy poziomie

istotności 0,05 prawdopodobieństwo, że się nie pomylimy,

wynosi dla jednego porównania 0,95, a dla dwóch porównań

- 0,95^2, czyli 0,9025. Dla 4 średnich mamy 6 porównań,

prawdopodobieństwo to wynosi więc 0,956, czyli 0,7351.

Prawdopodobieństwo, że się pomylimy co najmniej raz,

wynosi teraz 1 - 0,7351 = 0,2649, a na tak duży błąd

pierwszego rodzaju zgodzić się nie możemy.

• Do analizy takich problemów wykorzystujemy zespół metod

statystycznych zwanych analizą wariancji.

background image

Analiza wariancji

• Najprostsza i zarazem najbardziej popularna

jest jednoczynnikowa analiza wariancji,
czyli analiza wpływu tylko jednego czynnika
na wyniki przeprowadzanego badania.
Jednoczynnikowa analiza wariancji
weryfikuje więc hipotezę, że średnie w
grupach są jednakowe:

• H0: m1 = m2 = ... = mk

wobec hipotezy alternatywnej:

• H1: co najmniej dwie średnie różnią się

między sobą

background image

• Dokonujemy tego poprzez podział całkowitej

zmienności (czyli sumy kwadratów odchyleń

wszystkich pomiarów od średniej) na różne źródła

związane z efektami występującymi w badaniu.

• Mamy wówczas możliwość porównania zmienności

pomiędzy grupami (określonymi przez poziomy

czynnika) ze zmiennościami wewnątrzgrupowymi.

• Zakładając brak różnic średnich między grupami

(tj. hipotezę zerową w analizie wariancji),

oczekujemy, że wariancja oszacowana w oparciu o

zmienność między grupami powinna być w

przybliżeniu równa wariancji oszacowanej w

oparciu o zmienność wewnątrzgrupową. Jeżeli tak

nie jest, możemy się spodziewać, że wartości

średniej istotnie się różnią. Stwierdzamy wówczas,

że dany czynnik wpływa na zmienną (nazywaną

zmienną objaśnianą lub zależną).

background image

• Otaczająca nas rzeczywistość jest jednak bardziej złożona

i wielowymiarowa. Sytuacje, w których pojedyncza

zmienna pozwala wyjaśnić dane zjawisko, należą do

rzadkości. W eksperymentach psychologicznych zwykle

bierze się pod uwagę wiele czynników, zwanych

grupującymi.

• Na przykład: badając efekty trzech różnych terapii u

chorych na depresję, rozważamy dodatkowy czynnik

grupujący płeć. Dane do takiego dwuczynnikowego (rodzaj

terapii i płeć) eksperymentu możemy zapisać w postaci

tabeli o 2 wierszach (odpowiadających płci męskiej i

żeńskiej) i 3 kolumnach (odpowiadających 3 sprawdzanym

terapiom). Różnice między średnimi z wierszy są związane

z płcią pacjentów, natomiast różnice między średnimi z

kolumn wynikają z zastosowania różnych leków. W takim

eksperymencie całkowitą zmienność (sumę kwadratów

odchyleń) możemy rozdzielić na co najmniej 3 składniki:

– zmienność spowodowaną czynnikiem "płeć"

– zmienność spowodowaną zastosowaniem konkretnej

terapii

– zmienność spowodowaną błędem (zmienność

wewnątrzgrupowa)

background image

• Zauważmy, że istnieje jeszcze jedno dodatkowe

źródło zmienności - interakcja, czyli oddziaływanie

łączne. Mówi nam ona, w jakim stopniu wpływ

jednego czynnika zależy od poziomu drugiego. Jeżeli

wpływ ten się nie zmienia, to nie ma żadnej

interakcji; w przeciwnym wypadku (tzn. gdy wpływ

jednego czynnika zależy od poziomu drugiego)

zachodzi interakcja między dwoma czynnikami.

• Przyjmijmy, że jedna terapia daje lepsze wyniki niż

pozostałe, zarówno u kobiet, jak i u mężczyzn (czyli

niezależnie od płci) - oznacza to, że interakcji nie

ma.

• Jeżeli jednak jedna terapia daje lepsze wyniki u

kobiet, a inny u mężczyzn, to mówimy o wystąpieniu

interakcji między tymi dwoma czynnikami (rodzajem

terapii i płcią).

• Możliwość wykrywania istotnych interakcji i w

związku z tym testowania bardziej złożonych hipotez

na temat otaczającej nas rzeczywistości czyni z

analizy wariancji bardzo uniwersalne narzędzie.

Posługując się testem t-Studenta, nie

otrzymalibyśmy identycznych wyników.

background image

• Często się zdarza, że chcemy przeprowadzić

wielokrotnie ten sam test u tych samych osób po

upływie określonego czasu lub w różnych warunkach.

Interesuje nas zbadanie różnic występujących u tych

samych osób.

• Na przykład porównujemy stężenie kortykosteroidów

przed rozpoczęciem terapii (pierwszy pomiar - poziom

1. tzw. czynnika powtarzanych pomiarów, czyli czasu),

po tygodniu terapii (poziom 2. czynnika powtarzanych

pomiarów) i po 2 tygodniach (poziom 3. czynnika

powtarzanych pomiarów); czynnik powtarzanych

pomiarów (czas) ma więc 3 poziomy.

• Do analizy takiego zbioru danych wykorzystujemy

analizę wariancji z powtarzanymi pomiarami.

background image

• Efekty związane z powtarzanymi pomiarami

testuje się dokładnie w taki sam sposób, jak w

przypadku międzygrupowej analizy wariancji.

Jeśli czynnik powtarzanych pomiarów ma

więcej niż 2 poziomy, wówczas mamy do

dyspozycji 2 sposoby oceny istotności

efektów związanych z tym czynnikiem.

• Tradycyjnym sposobem jest przeprowadzenie

testu jednowymiarowego. Jednakże w

ostatnich latach do analizy takich układów

coraz powszechniej stosuje się

wielowymiarową analizę wariancji, której

zaletą jest między innymi to, że wymaga

spełnienia mniej restrykcyjnych założeń.

background image

• Rozważmy teraz eksperyment, w którym ocenia się 2

leki: X i Y, stosowane w leczeniu schizofrenii.

• Leczenie prowadzi 3 lekarzy. Mamy więc 6 n-

osobowych grup chorych (2 środki x 3 lekarzy). W

takim eksperymencie każdy z lekarzy niejako

"krzyżuje się" z każdym z dwóch leków. Taki schemat

eksperymentu umożliwia badanie interakcji między

lekarzami a lekami.

• Względy praktyczne (np. koszty leczenia) powodują

czasami, że eksperyment ten zostanie

przeprowadzony nieco inaczej. Zamiast 3 lekarzy

możemy mieć 6, tzn. 3 leczących lekiem X i 3

leczących lekiem Y. W eksperymencie uczestniczy

również 6 grup n-osobowych, lecz w innych schemacie

background image

• W takiej sytuacji lekarze stanowią czynnik

"zagnieżdżony" w lekach. Analiza wariancji

zastosowana do eksperymentu tego typu nosi

nazwę analizy wariancji hierarchicznej. W

naszym przykładzie całkowitą sumę kwadratów

możemy podzielić na sumę kwadratów związaną z

lekiem, sumę kwadratów związaną z lekarzami

(czynnik zagnieżdżony) oraz sumę kwadratów

wewnątrzgrupową. Nie możemy badać interakcji

czynników, ponieważ lekarze nie są "skrzyżowani" z

lekami, lecz w nich "zagnieżdżeni". Przyjmujemy

więc założenie, że interakcja taka nie występuje lub

możemy ją zaniedbać.

• Przy większej liczbie czynników eksperymenty tego

typu mogą być bardzo skomplikowane.

background image

• Na analizowaną zmienną (zwaną zależną)

teoretycznie może mieć wpływ bardzo duża liczba

dodatkowych zmiennych. Niektórych zmiennych nie

da się podczas eksperymentu kontrolować, a z

oddziaływania innych nie zdajemy sobie sprawy.

• Podstawowym, ale zarazem najprostszym sposobem

radzenia sobie z tą dodatkową zmiennością jest

dobór losowy. Jest to zresztą jedno z podstawowych

założeń analizy wariancji.

• Zdarzają się jednak sytuacje, w których musimy

korzystać z gotowych grup lub znane są nam

mierzalne zmienne zakłócające. Te dodatkowe

zmienne, których nie możemy przyjąć jako czynniki

grupujące, nazywane są zmiennymi towarzyszącymi.

• W takich sytuacjach powinniśmy się posłużyć

analizą kowariancji. Na przykład chcemy porównać

3 metody nauczania statystyki. Każdą metodę

stosujemy w innej grupie osób. Po pewnym czasie

nauczania we wszystkich trzech grupach

przeprowadzamy test osiągnięć w nauce i obliczamy

średnie wyniki.

background image

• Załóżmy, że dysponujemy także wynikami testu

inteligencji wszystkich osób badanych. Trzy badane

grupy mogą się różnić pod względem poziomu

inteligencji, która koreluje z osiągnięciami w nauce.

Tym samym nie wiemy, w jakim stopniu różnice w

osiągnięciach w nauce wynikają z różnych metod

nauczania, a w jakim z różnic w poziomie inteligencji

osób w poszczególnych grupach.

• Z pomocą przychodzi nam analiza kowariancji.

Wyodrębnia ona najpierw wpływ zmiennej

towarzyszącej (wyniki testu) za pomocą metody

regresji liniowej. Następnie stosuje analizę wariancji

wobec pozostałej zmienności, czyli tej części osiągnięć

w nauce, która nie została wyjaśniona przez poziom

inteligencji. Oceniamy tym samym istotność bądź

nieistotność różnicy między średnimi reszt,

nazywanymi średnimi skorygowanymi. Średnie te

pokazują, jaka część zmienności pozostaje w średnich

osiągnięciach w nauce po oddzieleniu tej części

zmienności, za którą odpowiedzialny jest poziom

inteligencji. Analiza kowariancji łączy więc w sobie dwie

metody - analizę regresji i analizę wariancji.

background image

• Jeżeli analiza wariancji nie pokaże istotności różnic

między rozpatrywanymi średnimi, nie przeprowadza

się już dalszych testów.

• Natomiast kiedy hipoteza zerowa zostanie

odrzucona w analizie wariancji, to powstaje pytanie,

które z porównywanych populacji są odpowiedzialne

za odrzucenie hipotezy zerowej. Chcemy wiedzieć,

które z n-średnich różnią się między sobą, a które są

jednakowe.

• Musimy wtedy przeprowadzić dokładniejsze badania

różnic między średnimi z poszczególnych grup.

Wykorzystujemy do tego celu specjalne testy post

hoc, zwane też testami wielokrotnych porównań,

oraz analizę kontrastów.

• Analiza kontrastów umożliwia testowanie

statystycznej istotności prognozowanych

szczegółowych różnic w określanych fragmentach

naszego złożonego eksperymentu.

background image

• Tyle skomplikowanej teorii – może

Wam się przydać do wykładu, albo na
później.

• Teraz upraszczamy

background image

Analiza wariancji

• Jednoczynnikowa: Czy płeć badanego

wpływa na wykonanie zadania

poznawczego?

• Dwuczynnikowa: Czy płeć i

osobowość badanego wpływa na

wykonanie zadania poznawczego?

• Trójczynnikowa: Czy płeć, osobowość

i pora dnia wpływa na wykonanie

zadania poznawczego?

background image

ANOVA

• Badamy wpływ tylko jednego

czynnika klasyfikującego (mającego
kilka poziomów) na wyniki
przeprowadzanego badania.

background image

Podstawy

• Załóżmy, że czynnik grupujący ma k poziomów.

• Możemy więc, przyjmując poziomy czynnika za

kryterium podziału, wyodrębnić w badanej grupie

k populacji.

Podstawowe założenia

• 1) analizowana zmienna zależna jest mierzalna

• 2) analizowana zmienna zależna w każdej z

rozważanych k populacji ma rozkład normalny

• 3) rozkłady te mają jednakową wariancję

W przypadku, gdy założenia analizy wariancji nie są

spełnione należy posługiwać się

testem

Kruskala-Wallisa

.

background image

Badanie

• Z każdej z tych populacji wylosowano

próbę o liczebności n

i

elementów.

Otrzymujemy łącznie

niezależnych obserwacji x

ij

dla j = 1,

2,...n

i

. Dane te stanowią podstawę do

weryfikacji hipotezy zerowej, że średnie

w grupach są jednakowe. Hipoteza

kierunkowa brzmi?

background image

• Dlaczego porównujemy średnie?

• Otóż jeśli średnie różnią się istotnie

między sobą, to intuicyjnie możemy

wnioskować, że analizowany czynnik

wpływa na zmienną zależną.

• Istotą analizy wariancji jest więc

równoczesne badanie istotności różnic

między wieloma średnimi

pochodzącymi z wielu grup (populacji).

background image

Model

• W statystyce do takich analiz stosuje się

podejście modelowe. Nasze rozważania można

bowiem zapisać w postaci matematycznego

modelu:

x

ij

= m + a

i

+ e

ij

gdzie:
- m oznacza ogólną średnią z populacji

generalnej,
- a

i

jest wpływem i-tego czynnika

eksperymentalnego (losowego)
- e

ij

jest składnikiem losowym, o rozkładzie

normalnym ze średnią równą zero i wariancją s 2.

background image

Ogólny model

background image

Średnie kwadraty

• Liczba stopni swobody:

– Wewnątrz (error): n-k
– Między (effect): k-1
- ogólnie: n-1
Liczymy średnie kwadraty odchyleń

Wynik testu:

background image

Analiza wyniku

Rozkład F-Snedecora wykorzystuje się do

sprawdzenia czy wyniki analizy wariancji są

istotne statystycznie, przy założonym poziomie

istotności. W tym celu zostały opracowane

tabelice rozkładu F-Snedecora

Aby sprawdzić, czy wyniki naszych testów są

istotne statystycznie musimy znać:

• wynik analizy wariancji
• stopnie swobody międzygrupowe i

wewnątrzgrupowe

• poziom istotności (poziom prawdopodobieństwa),

dla którego dany wynik będzie wskazywał na

istotną zależność - najbardziej popularny p = 0,05

background image

Wnioski

• Wartości F bliskie jedności

przemawiają za sprawdzaną hipotezą
zerową, natomiast wartości dużo
większe od 1 - za jej odrzuceniem.

background image

Przykład

• Porównano trzy grupy zwierząt pod

względem ich towarzyskości (ilości

kontaktów z innymi osobnikami w

ciągu godziny)

• Żółwie: 2, 5, 7, 9, 6, 7
• Psy: 8, 14, 29, 7, 14, 6
• Koty: 2, 4, 7, 9, 8
• Sprawdź za pomocą testu F czy

grupy różnią się miedzy sobą

background image

A które grupy się różnią od

siebie?

• Testy post-hoc, czyli ‘po fakcie’

– analiza kontrastów i związane z nią testy

(test Scheffégo)

– testy oparte na tzw. studentyzowanym

rozstępie, umożliwiające grupowanie

średnich (test Tukeya, test Duncana, test

Newmana i Keulsa)

– wnioskowanie na podstawie przedziałów

ufności (test Scheffégo, test

Benferroniego, test Dunneta).

background image

Założenie

• gdzie:
K to odpowiednia wartość związana ze statystyką

wykorzystywaną w danej metodzie (np. rozkład F

dla testu Scheffégo)

n

i

, n

j

to odpowiednie liczebności i-tej i j-tej grupy

ŚK reszt jest średnim kwadratem błędu

występującego w analizie wariancji

X

i

oraz X

j

to porównywane średnie i-tej i j-tej grupy.

background image

• Nierówność ta umożliwia utworzenie

przedziału ufności dla średnich x i y:

• Jeżeli tak skonstruowany przedział

obejmuje wartość 0, to średnie x i y
nie różnią się istotnie.

background image

Przykład

background image

I dalej:

background image

Test post-hoc Tukey’a

Test Tukeya występuje w dwóch

wariantach: dla równej liczebności
próbek i dla nierównej liczebności
(test Spjotvolla i Stoline'a).

• Oparty jest na "studentyzowanym"

rozkładzie.

• Więcej o różnych testach post-hoc:
http://www.mp.pl/artykuly/?aid=10851

background image

Zadanie

• Porównano trzy grupy osób:
• A: N = 10, suma kwadratów odchyleń

= 30, średnia 10

• B: N = 10, sko = 35, średnia 5
• C: N = 11, sko = 28, średnia 10
• Sprawdź za pomocą testu F czy

grupy różnią się miedzy sobą

background image

Anova dla grup zależnych

• Jeśli mamy powtarzany pomiar, także

możemy zastosować ANOVĘ,
jednakże musimy zaznaczyć (w
pakiecie statystycznym), że chodzi
nam o grupy zależne (inaczej:
powtarzane pomiary)

background image

ANOVA nieparametryczna

Test Kruskala-Wallisa jest nieparametrycznym

odpowiednikiem jednoczynnikowej analizy

wariancji. Za pomocą tego testu sprawdzamy czy

n niezależnych próbek pochodzi z tej samej

populacji, czy z populacji z taką samą medianą.

Poszczególne próbki nie muszą mieć takiej samej

liczebności. Maksymalnie możemy porównywać 10

grup.

Test Friedmana jest nieparametrycznym

odpowiednikiem jednoczynnikowej analizy

wariancji dla pomiarów powtarzanych. Uważany

jest za najlepszy nieparametryczny test dla

danych tego rodzaju. Najczęściej są to wyniki dla

tych samych osób otrzymane w n (n >>2) różnych

badaniach lub wyniki równoważnych grup osób.

background image

Test Kruskala-Wallisa

• Załóżmy, że przeprowadzono badania w celu

porównania 4 metod leczenia pewnej choroby.

Pobrano 5-elementowe próby losowe spośród

chorych na daną chorobę, których leczono

odpowiednio metodą I, II, III i IV. Wyniki terapii

oceniono w specjalnym teście. Wartości testu

podane w umownej punktacji przedstawia tabela

1.

background image

• Podano w niej też rangi nadane wynikom

obserwacji. Są one bowiem punktem wyjścia do

wyliczenia wartości opisywanych testów. Proces

rangowania przebiega następująco:

• Porządkujemy rosnąco wartości obu prób.
• Zaczynając od wartości najmniejszej (lub

największej), przyporządkowujemy poszczególnym

obserwacjom kolejne liczby naturalne.

• W przypadku wystąpienia wartości jednakowych

przyporządkowujemy im tzw. rangi wiązane

(średnia arytmetyczna z rang, jakie powinno się im

przypisać).

background image

• W podanym przykładzie chcemy

zweryfikować hipotezę, że wszystkie metody

leczenia dają jednakowe wyniki. Musimy

więc zastosować test sprawdzający hipotezę,

że k niezależnych próbek pochodzi z tej

samej populacji. Użyjemy w tym celu testu

sumy rang Kruskala-Wallisa. Dane powinny

być podobnie rozmieszczone jak w analizie

wariancji. Jedna zmienna (WYNIKI) zawiera

wyniki oceny, a druga (METODA) - kod

(numer metody) do jednoznacznej

identyfikacji grup.

background image

background image

Test Friedmana

background image

background image

Testy zależności

• Korelacja
• Regresja

background image

Związek między zmiennymi

• Badając związek między zmiennymi

możemy określić jego siłę (wielkość) oraz

kierunek.

Siła. Korelacja przyjmuje wartości od -1 do

1. Im wyższa wartość bezwględna korelacji

tym silniejszy związek między zmiennymi

Kierunek. Znak korelacji wskazuje na

kierunek związku między zmiennymi.

background image

background image

background image

Testy dla danych

jakościowych

W wielu badaniach medycznych gromadzimy dane
będące liczebnościami. Na przykład możemy
klasyfikować chorych w badanej próbie do różnych
kategorii pod względem wieku, płci czy natężenia
choroby.

Pierwszy krok: przedstawienie danych w tabeli
kontyngencji.

background image

Tabela kontyngencji

background image

Przykład

• Liczebności nij określają liczbę elementów próby, dla

których cecha X ma wariant Xi i jednocześnie cecha Y -

wariant Yj. Tablica wielodzielcza pokazuje więc określony

łączny rozkład obu cech. Liczebności w ostatnim wierszu i w

ostatniej kolumnie nazywamy empirycznymi brzegowymi

rozkładami, odpowiednio cechy Y i cechy X.

• Na przykład, chcąc ocenić wpływ używek (papieros, kawa,

alkohol) na pewną chorobę, zebraliśmy dane na temat ich

używania w grupie 90-osobowej. Zastosowano podział na 4

kategorie: nigdy (tzn. nie używano nigdy), niewiele

(używano w małych ilościach), średnio (używano w średnich

ilościach) i dużo (używano w dużych ilościach).

W badaniach brano również pod uwagę płeć respondentów.

Początkowy fragment danych dla 10 chorych (zapisanych w

4 rubrykach) przedstawia tabela 2.

background image

background image

Tabela kontyngencji

• Widać wyraźną przewagę mężczyzn w

grupie palących dużą lub średnią liczbę

papierosów, natomiast około 3-krotnie

więcej kobiet niż mężczyzn nigdy nie paliło.

Informacje byłyby bogatsze po dołączeniu

danych odsetkowych. Odsetki wylicza się

względem: ostatniej rubryki (płci),

ostatniego wiersza (liczby wypalanych

papierosów) oraz całkowitej liczby

respondentów. Następny etap analizy

statystycznej tak zebranych danych to

próba weryfikacji hipotezy, że dwie

jakościowe cechy w populacji są niezależne.

background image

Test Chi^2

Polega na porównaniu częstości zaobserwowanych z

częstościami oczekiwanymi przy założeniu hipotezy
zerowej (o braku związku między tymi dwiema
zmiennymi). Częstości oczekiwane obliczamy,
wykorzystując częstości marginalne (z tablicy
wielodzielczej) według następującego wzoru:

background image

Test chi^2

• Wówczas hipotezę zerową orzekającą, że

cechy X i Y są niezależne, możemy

zweryfikować testem chi^2.

Weryfikacja hipotezy zerowej:

H0: cechy X i Y są niezależne

Wobec hipotezy alternatywnej: H1:

cechy X i Y są zależne

background image

• Do weryfikacji hipotezy stosujemy statystykę:

gdzie E - oczekiwana częstość komórki
O - obserwowana częstość komórki

Przy założeniu hipotezy zerowej opisywana

statystyka ma asymptotyczny rozkład
o s = (k - 1) (p - 1) stopniach swobody

background image

Przykład

• Na przykład badano zależność między liczbą

wypalanych papierosów a wystąpieniem
pewnych zmian patologicznych w płucach w
grupie 1500 osób.

background image

Przykład cd

background image

Przykład cd

• Z kolei wartość krytyczna odczytana z tablic dla

poziomu istotności alfa = 0,001 wynosi 13,817.

Pozwala więc nam odrzucić hipotezę zerową i

stwierdzić, że na poziomie istotności alfa = 0,001

istnieje zależność między liczbą wypalanych

papierosów dziennie a wystąpieniem patologicznych

zmian w płucach.

• Zauważmy, że bardzo duże wartości chi^2 oznaczają

dużą różnicę pomiędzy częstościami obserwowanymi

a oczekiwanymi, i jest to dowód istnienia zależności.

Przeciwnie mała wartość (zwłaszcza bliska 0) nie daje

dowodu na istnienie korelacji

background image

Chi^2 dla tabeli 2/2

background image

background image

background image

Interpretacja

• Interpretacja wszystkich tych współczynników jest

taka sama:

• jeżeli ma wartość zero, to cechy X i Y są niezależne

• im bliższa jedności jest wartość tych

współczynników, tym silniejsze jest powiązanie

między analizowanymi cechami X i Y.

• Obliczając opisane współczynniki dla danych

dotyczących choroby wieńcowej, otrzymujemy

współczynnik Fi = V = 0,51

background image

Korelacja

• Dwie zmienne mogą być powiązane zależnością

funkcyjną lub zależnością statystyczną (korelacyjną).

• Związek funkcyjny odznacza się tym, że każdej

wartości jednej zmiennej niezależnej (X) odpowiada

tylko jedna, jednoznacznie określona wartość

zmiennej zależnej (Y). Wiadomo na przykład, że

obwód kwadratu jest funkcją jego boku (O = 4a).

• Związek statystyczny polega na tym, że określonym

wartościom jednej zmiennej odpowiadają ściśle

określone średnie wartości drugiej zmiennej. Można

zatem obliczyć, jak się zmieni (średnio biorąc)

wartość zmiennej zależnej Y w zależności od wartości

zmiennej niezależnej X.

background image

SENSOWNOŚĆ KORELACJI!

• Oczywiście najpierw na podstawie analizy

merytorycznej należy logicznie uzasadnić

występowanie związku, a dopiero potem przystąpić

do określenia siły i kierunku zależności.

• Znane są bowiem w literaturze badania zależności

(nawet istotnej statystycznie) między liczbą zajętych

gniazd bocianich a liczbą urodzeń na danym

obszarze czy między liczbą zarejestrowanych

odbiorników TV a liczbą chorych umysłowo.

• Zwróćmy też uwagę, że liczbowe stwierdzenie

występowania zależności nie zawsze oznacza

występowanie związku przyczynowo-skutkowego

między badanymi zmiennymi. Współwystępowanie

dwóch zjawisk może również wynikać z

bezpośredniego oddziaływania na nie jeszcze innego,

trzeciego zjawiska.

background image

• W analizie korelacji badacz jednakowo

traktuje obie zmienne - nie
wyróżniamy zmiennej zależnej i
niezależnej. Korelacja między X i Y jest
taka sama, jak między Y i X. Mówi nam
ona, na ile obie zmienne zmieniają się
równocześnie w sposób liniowy.
Precyzyjna definicja zaś brzmi:

Korelacja między zmiennymi X i Y

jest miarą siły liniowego związku
między tymi zmiennymi.

background image

Krok 1

• Analizę związku korelacyjnego między

badanymi cechami rozpoczynamy
zawsze od sporządzenia wykresu.
Wykresy, które reprezentują
obrazowo związek pomiędzy
zmiennymi, nazywane są wykresami
rozrzutu (scatterplot).

• Wzrokowa ocena ułatwia określenie

siły i rodzaju zależności.

background image

• Przyjmijmy, że zbiorowość jest badana ze względu na

dwie zmienne X i Y, a wartości tych zmiennych w

populacji lub próbie n-elementowej są zestawione w

postaci dwóch szeregów szczegółowych lub

rozdzielczych. W prostokątnym układzie współrzędnych

na osi odciętych zaznaczamy wartości jednej zmiennej,

a na osi rzędnych - wartości drugiej zmiennej.

• Punkty odpowiadające poszczególnym wartościom cech

tworzą korelacyjny wykres rozrzutu. Rzadko się zdarza,

że zaznaczone punkty leżą dokładnie na linii prostej

(pełna korelacja); częściej spotykana konfiguracja

składa się z wielu zaznaczonych punktów leżących

mniej więcej wzdłuż konkretnej krzywej (najczęściej linii

prostej)

background image

Przykład z życia

background image

Współczynnik korelacji

• Siłę współzależności dwóch

zmiennych można wyrazić liczbowo
za pomocą wielu mierników.
Najbardziej popularny jest
współczynnik korelacji liniowej
Pearsona,
oznaczony symbolem rXY
i przyjmujący wartości z przedziału [-
1, 1].

background image

Korelacja Pearsona

• Współczynnik korelacji Pearsona wyliczamy

wówczas, gdy:
- obie zmienne są mierzalne
- mają rozkład zbliżony do normalnego
- zależność jest prostoliniowa (stąd nazwa).

Przy interpretacji współczynnika korelacji

liniowej Pearsona należy więc pamiętać, że

wartość współczynnika bliska zeru nie

zawsze oznacza brak zależności, a jedynie

brak zależności liniowej.

background image

Wartości R-Pearsona

• Znak współczynnika korelacji informuje nas o kierunku korelacji,

natomiast jego bezwzględna wartość - o sile związku. Oczywiście

rXY jest równe rYX. Jeśli rXY = 0, oznacza to zupełny brak związku

korelacyjnego między badanymi zmiennymi X i Y (przypadek 3.

na rys. 1). Im wartość bezwzględna współczynnika korelacji jest

bliższa jedności, tym zależność korelacyjna między zmiennymi

jest silniejsza. Gdy rXY = I1I, to zależność korelacyjna przechodzi

w zależność funkcyjną (funkcja liniowa).

• W analizie statystycznej zwykle przyjmuje się następującą skalę:

• rXY = 0 zmienne nie są skorelowane

• 0 <rXY <0,1 korelacja nikła

• 0,1 =<rXY <0,3 korelacja słaba

• 0,3 =<rXY <0,5 korelacja przeciętna

• 0,5 =<rXY <0,7 korelacja wysoka

• 0,7 =<rXY <0,9 korelacja bardzo wysoka

• 0,9 =<rXY <1 korelacja prawie pełna.

background image

Wzór na R-Peaesona

• a s(x) i s(y) są odchyleniami

standardowymi odpowiednich

zmiennych.

background image

Kowariancja

Kowariancja jest nieunormowaną miarą zależności liniowej

pomiędzy dwiema zmiennymi. Stanowi ona miarę wspólnej

zmienności obu zmiennych (ko-wariancja) pomiędzy

zmiennymi. Innymi słowy czy odchylanie się obserwowanych

wyników zmiennej od wartości średniej dla tej zmiennej jest

podobne dla obu zmiennych. Jeżeli zmienne nie są ze sobą

związane to kowariancja jest bliska wartości 0. Jeżeli zmienne

są ze sobą związane to wartość kowariancji jest różna od 0.

Kowariancję możemy wyliczyć w bardzo szybki sposób.

Liczymy iloczyn pomiędzy odpowiadającymi wartościami

pierwszej i drugiej zmiennej, z tych iloczynów wyciągamy

średnią, następnie wyliczamy wartości średnie dla samych

wartości (nie iloczynów) zmiennych i korzystamy ze wzoru:

cov - symbol kowariancji (X,Y) = wartość oczekiwana

(X*Y) - (wartość oczekiwana (X) * wartość oczekiwana

(Y))

background image

Nasz przykład

background image

Co, jeśli dane na skali

porządkowej?

• Korelacja rho-Spearmana traktowana jest jako

korelacja nieparametryczna, co stanowi odpowiednik

parametrycznej korelacji r-Pearsona. W przypadku

korelacji rho-Spearmana wyniki są najpierw poddane

rangowaniu. Przypisywane są rangi poszczególnym

obserwacjom. Tak "przeliczone" wyniki poddawane

są analizie korelacji.

Rangowanie wyników pozwala przeanalizować

związek pomiędzy zmiennymi mierzonymi na skali

porządkowej (nie tylko ilościowej, jak miało to

miejsce w przypadku korelacji r-Pearsona). W

przypadku tej korelacji nie ma znaczenia to, czy

analizowane zmienne mają rozkłady zbliżone do

normalnego.

background image

Nasz przykład 2

background image

Co, jeśli dane na skali

jakościowej?

• Chi^2 i wyliczenie współczynnika Phi-

Yula albo V-Kramera

background image

background image

Regresja liniowa

• Modelowanie zależności między dwiema

zmiennymi: zmienną zależną (Y) i zmienną
niezależną (X), zakładając, że między X i Y
zachodzi związek liniowy.

• Równanie linii prostej: Y = bX + a
• b (w niektórych modelach jako B1) – kąt

nachylenia linii względem osi X

• a (w niektórych modelach b, stała) –

odległość na osi Y od punktu początkowego

do punktu przecięcia z linią prostą

background image

Metoda najmniejszych

kwadratów

• Jak jednak znaleźć taką "dobrze

dopasowaną" linię prostą? Punktem wyjścia

są reszty, a właściwie suma kwadratów

reszt, opisująca rozbieżność pomiędzy

wartościami empirycznymi zmiennej

zależnej a jej wartościami teoretycznymi,

obliczonymi na podstawie wybranej funkcji.

Oszacowania b0 i b1 dobieramy tak, aby

suma kwadratów reszt osiągnęła minimum.

Ta najbardziej znana i najczęściej stosowana

metoda szacowania parametrów linii

regresji nosi nazwę metody

najmniejszych kwadratów.

background image

Regresja liniowa

background image

Nasz przykład

background image

Obliczanie współczynników

a i b

background image

Nasz przykład

background image

Współczynnik determinacji

R^2

• Jest to liczba z przedziału <0, 1>. R2

równe 1 oznacza doskonałe dopasowanie,

natomiast wartość R2 równa 0 - brak

powiązania między zmiennymi.

• Punktem wyjścia do utworzenia takiej

miary jest badanie sumy kwadratów

odchyleń poszczególnych obserwacji yi od

ich średniej. Można pokazać, że:

background image

R^2

background image

R^2

• Jako współczynnik determinacji przyjmujemy

stosunek zmienności wyjaśnionej do zmienności

całkowitej.

• Otrzymujemy więc: R2 = WSK/CSK

• Współczynnik determinacji mierzy, jaka część ogólnej

zmienności zmiennej zależnej jest wyjaśniona przez

regresję liniową. Tej miary dopasowania używamy

tylko dla regresji liniowej. Symbol R2 wziął się

stąd, że w modelu liniowym współczynnik

determinacji jest równy kwadratowi

współczynnika korelacji. Wartość R2 znajdziemy w

arkuszu wyników. W naszym przykładzie wartość ta

wynosi R2 = 0,483. Można ją wyrazić w procentach,

mówiąc że model wyjaśnia 48,3% zaobserwowanej

zmienności, a nie wyjaśnia 51,7% zmienności.

background image

Kolejny przykład

background image

Współczynniki regresji to kolumna

oznaczona [4]. Pierwszy wiersz to

wartość stała b0, a drugi to

współczynnik b1. Tak więc poszukiwany

model ma postać:

• WZROST = 4,14753 × WIEK + 87,72349
• Parametr b0 wynosi 4,14753, co

oznacza, że jeśli wartość zmiennej WIEK

wzrośnie o jedną jednostkę (w naszym

przykładzie o rok), to oczekujemy, że

WZROST zwiększy się o 4,14753 cm.

background image

background image

Błąd estymacji

• W praktyce nie dysponujemy pełną informacją o populacji generalnej.

Otrzymujemy więc funkcję regresji wyliczoną metodą najmniejszych

kwadratów w oparciu o dane z losowej próby. Ta funkcja regresji, zwana

empiryczną, jest aproksymacją regresji w całej populacji. Wiąże się z tym

problem oceny rozbieżności między wartościami zmiennej niezależnej yi a

wartościami wyliczonymi z modelu. Różnice opisujące tę rozbieżność noszą

nazwę reszt. Im reszty są mniejsze, tym bliżej wartości empirycznej yi

wartości przewidywane przez model. Najlepiej by było, gdyby reszty były

równe zero, ale w praktyce nigdy tak się nie zdarza. Nasuwa to koncepcję,

aby jako miarę omawianej rozbieżności potraktować odchylenie standardowe

reszt ei. W statystyce bowiem precyzję estymatora oddaje jego wariancja.

Tak też jest w istocie - wielkość ta, zwana błędem standardowym estymacji i

oznaczana jako Se, informuje o przeciętnej wielkości odchyleń empirycznych

wartości zmiennej zależnej od wartości wyliczonych z modelu

(teoretycznych). Jest to ważny parametr w analizie regresji, ponieważ

stanowi miarę rozproszenia elementów populacji wokół linii regresji.

Odchylenie standardowe reszt mówi więc nam o stopniu "dopasowania"

modelu do danych empirycznych. Im Se mniejsze, tym lepiej dopasowany

model. Wartość tę znajdziemy w dwóch miejscach, w oknie Wyniki regresji

wielokrotnej oraz powtórzoną w arkuszu wyników w polu oznaczonym

numerem [1]. W naszym przypadku wartość ta wynosi Se = 12,725. Oznacza

to, że przewidywane wartości zmiennej WZROST różnią się od wartości

empirycznych średnio o 12,725 cm.

background image

Błędy współczynników

• Wyliczone współczynniki regresji b0 i b1 są, jak

wiemy, oszacowaniami współczynników regresji dla

całej populacji. Nasuwa się więc pytanie, jakim

błędem są one obciążone. Odpowiedzi na nie

udziela średni błąd szacunku parametru. Stanowi on

oszacowanie średniej rozbieżności między

parametrami modelu a jego możliwymi ocenami.

Pamiętajmy - im mniejszy średni błąd szacunku, tym

lepiej. Wartości te znajdziemy w arkuszu wyników

(rys. 3) w polu oznaczonym numerem [5]. Dla

naszego przykładu:

• oceny parametru b1(b) odchylają się od tego

parametru o Sb1 = 0,86996

• oceny parametru b0(a) odchylają się od tego

parametru o Sb0 = 12,01024.

background image

• Szacując współczynnik kierunkowy na poziomie

4,14753, mylimy się więc średnio o 0,869.

Podobnie szacując wyraz wolny na poziomie

87,723, mylimy się średnio o 12,01. Można

zapytać, czy to dużo czy mało?

• To zależy od wartości współczynników. Dla

parametru b1 błąd szacunku stanowi około 21%

(0,86996/4,14753 0,21), natomiast dla wyrazu

wolnego - około 14% (12,01024/87,723 0,14).

Jeżeli wartość jest bliska 100% lub większa,

precyzja jest bardzo niezadowalająca. Wartości

ponad 50% powinny już zwrócić naszą uwagę na

inne oceny modelu. Przyjęło się wielkości Sb

zapisywać w nawiasach pod ocenami parametrów

modelu. Dla naszego przykładu mamy więc:

• WZROST = 4,14753 × WIEK + 87,72349 ± 12,725

                (0,86996)               (12,01024)


Document Outline


Wyszukiwarka

Podobne podstrony:
prezentacja 1 Stat 2014
prezentacja 2 Stat 2014
prezentacja 1 Stat 2014
Prezentacja SPSS 2014
Prezentacja SPSS 2014
Prezentacja SSSPZ 02 12 2014 MTomaszewska
prezentacja RPO WZ 2014 2020
Pomoc społeczna, służby społeczne, praca socjalna program prezentacji 2014 15
Prezentacja 2014
Indywidualne prawo pracy prezentacja 2014 2015 2
TEKST PREZENTACJA, WZR UG ZARZĄDZANIE - ZMP I STOPIEŃ, IV SEMESTR (letni) 2013-2014, PROMOCJA; S. Ba
uzdolnienia, Pedagogika ogólna APS 2013 - 2016, I ROK 2013 - 2014, II semestr, 6) Pedagogika wczesno
Prezentacja2 2 2014
PREZENTACJA I przewodzenie prądu elektrycznego 2014
Przepis na interesującą i kreatywną prezentację multimedialną, zk 2014
zywienie psow i kotow prezentacja 2014
Wykaz grup do prezentacji IV rok?nt sem zimowy 13 2014
Prezentacja SSSPZ 02 12 2014 MTomaszewska
prezentacja RPO WZ 2014 2020

więcej podobnych podstron