ANALIZA WARIANCJI
ANOVA
(
AN
alysis
O
f
VA
riance)
Za pomocą analizy wariancji możemy porównywać
średnie
więcej
niż dwóch grup. Porównując te średnie korzystamy z dwóch źródeł
zróżnicowania wyników: wariancji między grupami i wariancji
wewnątrz grup. W analizie wariancji porównujemy te dwie wartości
za pomocą statystyki F-Fishera.
Stosunek wariancji międzygrupowej do wariancji wewnątrzgrupowej
mówi nam o tym czy zmienność w grupach jest mniejsza niż zmienność
między grupami.
Wyniki w obrębie każdej grupy
jednorodne (mała wariancja
wewnątrzgrupowa)
Zróżnicowane wyniki pomiędzy
grupami (duża wariancja
międzygrupowa)
Porównajmy długości ogonów trzech ras kotów
10 kotów perskich:
10, 11, 12, 11, 10, 9, 12, 11, 10, 11;
10 syjamów:
14, 15, 16, 15, 13, 15, 13, 14, 15, 15;
10 norweskich leśnych:
17, 18, 18, 19, 17, 16, 18, 16,
17, 18;
Wprowadzamy dane do edytora
Zmienne w kolumnach, przypadki w
wierszach
Analizę wariancji znajdujemy
w grupie „porównywanie
średnich”
Zmienną zależną jest długość ogona
(skala ilościowa)
Jako czynnik wrzucamy rasę
(zmienna kategorialna na co
najmniej 3 poziomach).
Ponieważ sam wynik testu
F nie mówi o tym, które
konkretnie grupy się
między sobą różnią,
dodatkowo wybieramy testy
„post hoc”
Który post hoc jest najlepszy?
W wyborze testu
post hoc mamy
dużą swobodę
działania (ich
dobór jest bardzo
indywidualny).
Najczęściej
stosowane testy są
zaznaczone,
NIR jest testem,
który może pokazać
również różnice
przypadkowe (nie
polecam). NIR i
Duncan to testy
najbardziej liberalne
– uznają za istotne
nawet małe różnice.
Najbardziej
konserwatywny jest
test Scheffe –
wykazuje tylko
największe różnice
między średnimi.
Bardzo dobrze jest również sprawdzić równość
wariancji w porównywanych grupach (jedno z
założeń testu ANOVA)
Aby to zrobić klikamy
przycisk „opcje” i
następnie zaznaczamy
jednorodność wariancji.
Dodatkowo możemy
poprosić program o
wykres średnich
Test Levene’a okazał się
nieistotny (p=0,978), czyli
nie możemy odrzucić
hipotezy zerowej o równości
wariancji w porównywanych
grupach. Wariancje są równe.
Test F jest również bardzo
istotny:
F(2,27)=121,93; p<0,001 –
wobec tego odrzucamy
hipotezę zerową.
Przynajmniej dwie średnie
w porównywanych grupach
są istotnie różne od siebie
Pytanie
tylko
które??
Odpowie na nie analiza
testów post hoc. W tabeli
mamy wartości średnie dla
każdej z porównywanych
grup (średnia długość ogona
każdej rasy). Te grupy,
których średnie znajdują się
w tej samej kolumnie tabeli
nie różnią się między sobą
istotnie.
Różnią się natomiast
grupy, których średnie
znajdują się w oddzielnych
kolumnach
. W naszym
przykładzie występują
różnice pomiędzy wszystkimi
trzema grupami (każdy wynik
znajduje się w osobnej
kolumnie).
Analiza post hoców
Istotność a wielkość efektu (eta-kwadrat)
Eta
2
=F*df
m/g
/(F*df
m/g
+df
w/g
)
Nasz wynik:
F(2,27)=121,9; p<0,001
Eta
2
=121,9*2/(121,9*2+27) = 243,8/243,8+27
= 243,8/270,8= 0,9
Interpretacja podobnie jak R
2
Równie dobrym sposobem jest
analiza wykresu
średnich
.
Program domyślnie pokazuje wykres liniowy, który bardzo
prosto (wybierając z menu Galeria) możemy zamienić na
słupkowy
Jeśli wynika to z teorii możemy porównywać grupy za pomocą tzw.
porównań planowanych. Ich stosowanie jest uzasadnione nawet
wtedy, gdy wyniki analizy wariancji są nieistotne. W SPSS
znajdziemy je w klawiszu KONTRASTY
Aby dokonać porównań
pewnych grup między sobą
wprowadzamy
współczynniki kontrastu (o
przeciwnych znakach). Zero
oznacza, że wykluczamy
jakąś grupę z analizy.
Wszystkie współczynniki
kontrastu muszą się
sumować do zera.
Wprowadzamy je kolejno,
po jednej cyfrze i
przenosimy do okna za
pomocą przycisku DODAJ
.
W naszym przykładzie
porównywaliśmy ze
sobą koty perskie i
norweskie leśne. Test
kontrastu okazał się
istotny, wobec czego
możemy wnioskować
o tym, że grupy te
różnią się od siebie.
• Jeżeli chcemy porównywać połączone grupy
muszą mieć one takie same znaki
współczynników
• Grupy które mają być skontrastowane mają
przeciwne znaki współczynników
• Przykłady kontrastów z połączonymi grupami:
2, 2, 2, 0, 0, -3, -3
1, 1, 0, 0, 0, 0, -2
Jeżeli te same grupy chcemy porównywać
za pomocą kontrastów wielokrotnie,
kontrasty powinny być ORTOGONALNE,
czyli nieskorelowane i niezależne od siebie
Jak to sprawdzić?
Dla rozrywki sprawdźmy:
(2, 2, 2, 0, 0, -3, -3) z (-2, 1, 1, 0, 0, 0,
0)
Jeżeli suma iloczynów odpowiadających sobie
współczynników kontrastów wynosi 0, oznacza
to, że są one ortogonalne
W badaniu z k grupami istnieje k-1 porównań
ortogonalnych – czyli jeśli mamy 3 grupy, to
możemy mieć tylko dwa kontrasty ortogonalne.
gr1 gr2 gr3
1 0 -1
1 -2 1`
• Szczególną odmianą kontrastów są
wielomiany - pozwalają one na sprawdzenie
czy układ średnich odpowiada kolejnej
funkcji - liniowej, kwadratowej, sześciennej
itd.
• W istocie są to określone współczynniki
kontrastów automatycznie przypisywane do
kolejnych poziomów zmiennej niezależnej
• Ważne, wielomiany mają sens wtedy kiedy
kolejne kategorie mają ze sobą jakiś
związek (np. mało, średnio, dużo; a nie:
blond, czarny, rudy))
Analiza wariancji - tabelka
SS
(suma
kwadratów)
df
(stopnie
swobody)
MS
(średni
kwadrat=waria
ncja)
F =
MS
MG
/MS
WG
MG
(między-
grupowa
)
SS
MG
k-1
k – liczba
grup
SS
MG
/ df
MG
WG
(wewnąt
rz-
grupowa
)
SS
WG
N-k
N – liczba
osób
SS
WG
/ df
WG
Ogółe
m
SS
MG
+
SS
WG
N-1
lub
df
MG
+
df
WG
Ile grup
porównujemy
dwi
e
więcej niż
dwie
Na jakiej skali zmienna
zależna?
nominalna
porządkow
a
ilościowa
Chi-
Kwadrat
U-Manna-
Whitneya
T-
Studenta
Chi-
Kwadrat
Jaki test wybrać, kiedy sprawdzamy istnienie
różnic między grupami (próby
niezależne)?
Spełnione
założenia
tak
nie
nominalna
porządkow
a
ilościow
a
H
-Kruskala-
Wallisa
Spełnione
założenia
nie
tak
F-
Fishera
(analiza
wariancji
)