 
ANALIZA WARIANCJI
ANOVA
(
AN
alysis
O
f
VA
riance)
 
Za pomocą analizy wariancji możemy porównywać
średnie
więcej
niż dwóch grup. Porównując te średnie korzystamy z dwóch źródeł 
zróżnicowania wyników: wariancji między grupami i wariancji 
wewnątrz grup. W analizie wariancji porównujemy te dwie wartości 
za pomocą statystyki F-Fishera. 
Stosunek wariancji międzygrupowej do wariancji wewnątrzgrupowej
mówi nam o tym czy zmienność w grupach jest mniejsza niż zmienność
między grupami.
Wyniki w obrębie każdej grupy 
jednorodne (mała wariancja 
wewnątrzgrupowa)
Zróżnicowane wyniki pomiędzy 
grupami  (duża wariancja 
międzygrupowa)
 
Porównajmy długości ogonów trzech ras kotów
10 kotów perskich:
10, 11, 12, 11, 10, 9, 12, 11, 10, 11;
10 syjamów:
14, 15, 16, 15, 13, 15, 13, 14, 15, 15;
10 norweskich leśnych:
17, 18, 18, 19, 17, 16, 18, 16,
17, 18;
Wprowadzamy dane do edytora
Zmienne w kolumnach, przypadki w 
wierszach
 
Analizę wariancji znajdujemy 
w grupie „porównywanie 
średnich”
Zmienną zależną jest długość ogona 
(skala ilościowa) 
Jako czynnik wrzucamy rasę 
(zmienna kategorialna na co 
najmniej 3 poziomach).
Ponieważ sam wynik testu 
F nie mówi o tym, które 
konkretnie grupy się 
między sobą różnią, 
dodatkowo wybieramy testy 
„post hoc”
 
Który post hoc jest najlepszy?
W wyborze testu 
post hoc mamy 
dużą swobodę 
działania (ich 
dobór jest bardzo 
indywidualny). 
Najczęściej 
stosowane testy są 
zaznaczone, 
NIR jest testem, 
który może pokazać 
również różnice 
przypadkowe (nie 
polecam). NIR i 
Duncan to testy 
najbardziej liberalne 
– uznają za istotne 
nawet małe różnice. 
Najbardziej 
konserwatywny jest 
test Scheffe – 
wykazuje tylko 
największe różnice 
między średnimi. 
 
Bardzo dobrze jest również sprawdzić równość
wariancji w porównywanych grupach (jedno z
założeń testu ANOVA)
Aby to zrobić klikamy 
przycisk „opcje” i 
następnie zaznaczamy 
jednorodność wariancji.
Dodatkowo możemy 
poprosić program o 
wykres średnich
 
Test Levene’a okazał się 
nieistotny (p=0,978), czyli 
nie możemy odrzucić 
hipotezy zerowej o równości 
wariancji w porównywanych 
grupach. Wariancje są równe.
Test F jest również bardzo 
istotny:
F(2,27)=121,93; p<0,001 – 
wobec tego odrzucamy 
hipotezę zerową. 
Przynajmniej dwie średnie 
w porównywanych grupach 
są istotnie różne od siebie
Pytanie 
tylko 
które??
 
Odpowie na nie analiza 
testów post hoc. W tabeli 
mamy wartości średnie dla 
każdej z porównywanych 
grup (średnia długość ogona 
każdej rasy). Te grupy, 
których średnie znajdują się 
w tej samej kolumnie tabeli 
nie różnią się między sobą 
istotnie. 
Różnią się natomiast
grupy, których średnie 
znajdują się w oddzielnych 
kolumnach
. W naszym
przykładzie występują 
różnice pomiędzy wszystkimi 
trzema grupami (każdy wynik 
znajduje się w osobnej 
kolumnie).
Analiza post hoców
 
Istotność a wielkość efektu (eta-kwadrat)
Eta
2
=F*df
m/g
/(F*df
m/g
+df
w/g
)
Nasz wynik:
F(2,27)=121,9; p<0,001
Eta
2
=121,9*2/(121,9*2+27) = 243,8/243,8+27
= 243,8/270,8= 0,9
Interpretacja podobnie jak R
2
 
Równie dobrym sposobem jest
analiza wykresu
średnich
.
Program domyślnie pokazuje wykres liniowy, który bardzo 
prosto (wybierając z menu Galeria) możemy zamienić na 
słupkowy
 
Jeśli wynika to z teorii możemy porównywać grupy za pomocą tzw.
porównań planowanych. Ich stosowanie jest uzasadnione nawet
wtedy, gdy wyniki analizy wariancji są nieistotne. W SPSS
znajdziemy je w klawiszu KONTRASTY
Aby dokonać porównań 
pewnych grup między sobą 
wprowadzamy 
współczynniki kontrastu (o 
przeciwnych znakach). Zero 
oznacza, że wykluczamy 
jakąś grupę z analizy. 
Wszystkie współczynniki 
kontrastu muszą się 
sumować do zera. 
Wprowadzamy je kolejno, 
po jednej cyfrze i 
przenosimy do okna za 
pomocą przycisku DODAJ
.
 
W naszym przykładzie
porównywaliśmy ze
sobą koty perskie i
norweskie leśne. Test
kontrastu okazał się
istotny, wobec czego
możemy wnioskować
o tym, że grupy te
różnią się od siebie.
 
• Jeżeli chcemy porównywać połączone grupy
muszą mieć one takie same znaki 
współczynników 
• Grupy które mają być skontrastowane mają
przeciwne znaki współczynników
• Przykłady kontrastów z połączonymi grupami:
2, 2, 2, 0, 0, -3, -3
1, 1, 0, 0, 0, 0, -2
Jeżeli te same grupy chcemy porównywać 
za pomocą kontrastów wielokrotnie, 
kontrasty powinny być ORTOGONALNE, 
czyli nieskorelowane i niezależne od siebie
Jak to sprawdzić?
 
Dla rozrywki sprawdźmy:
(2, 2, 2, 0, 0, -3, -3) z  (-2, 1, 1, 0, 0, 0, 
0) 
Jeżeli suma iloczynów odpowiadających sobie
współczynników kontrastów wynosi 0, oznacza 
to, że są one ortogonalne
W badaniu z k grupami istnieje k-1 porównań
ortogonalnych – czyli jeśli mamy 3 grupy, to 
możemy mieć tylko dwa kontrasty ortogonalne.
gr1 gr2 gr3
1 0 -1
1 -2 1`
 
• Szczególną odmianą kontrastów są
wielomiany - pozwalają one na sprawdzenie 
czy układ średnich odpowiada kolejnej 
funkcji - liniowej, kwadratowej, sześciennej 
itd.
• W istocie są to określone współczynniki
kontrastów automatycznie przypisywane do 
kolejnych poziomów zmiennej niezależnej
• Ważne, wielomiany mają sens wtedy kiedy
kolejne kategorie mają ze sobą jakiś 
związek (np. mało, średnio, dużo; a nie: 
blond, czarny, rudy))
 
Analiza wariancji - tabelka
SS
(suma
kwadratów)
df
(stopnie
swobody)
MS
(średni
kwadrat=waria
ncja)
F =
MS
MG
/MS
WG
MG
(między-
grupowa
)
SS
MG
k-1
 
k – liczba 
grup
SS
MG
/ df
MG
WG
(wewnąt
rz-
grupowa
)
SS
WG
N-k
 
N – liczba 
osób
SS
WG
/ df
WG
Ogółe
m
SS
MG
+
SS
WG
N-1
lub
df
MG
+
df
WG
 
Ile grup 
porównujemy
dwi
e
więcej niż 
dwie
Na jakiej skali zmienna 
zależna?
nominalna
porządkow
a
ilościowa
Chi-
Kwadrat
U-Manna-
Whitneya
T-
Studenta
Chi-
Kwadrat
Jaki test wybrać, kiedy sprawdzamy istnienie
różnic między grupami (próby
niezależne)?
Spełnione 
założenia
tak
nie
nominalna
porządkow
a
ilościow
a
H 
-Kruskala-
Wallisa
Spełnione 
założenia
nie
tak
F-
Fishera 
(analiza 
wariancji
)