 
Jednoczynnikowa analiza
wariancji
Jednoczynnikowa analiza 
wariancji jest testem 
statystycznym opracowanym przez 
Ronalda Fishera i wykorzystującym 
podział wariancji dla badanej cechy 
na składowe związane ze źródłami 
zmienności uwzględnionymi w 
modelu liniowym
 
Jednoczynnikowa analiza
wariancji
Badamy pewną cechę (np. przyrosty masy 
ciała, plony) po zastosowaniu jednego 
czynnika doświadczalnego (np. poziomu 
żywienia, rodzaju nawożenia). 
Mamy t poziomów czynnika 
doświadczalnego (t dawek żywieniowych, t 
rodzajów nawożenia) i wybieramy do 
doświadczenia t grup (t grup zwierząt, t 
pól), przy czym t ≥ 3
W każdej grupie jest r
i
elementów (zwierząt,
pól) na których wykonujemy doświadczenie
 
Jednoczynnikowa analiza
wariancji
Czy zastosowany czynnik doświadczalny
wpływa istotnie na badaną cechę?
Hipoteza zerowa:
H
0
: μ
1
= μ
2
= μ
3
= …. = μ
t
Hipoteza alternatywna:
H
A
: ~(μ
1
= μ
2
= μ
3
= …. = μ
t
)
Jednoczynnikowa analiza wariancji
jest testem służącym do weryfikacji
hipotezy H
0
zakładającej równość
wartości średnich t grup
(reprezentujących t populacji)
 
Model liniowy
jednoczynnikowej analizy
wariancji
ij
i
ij
ε
τ
μ
x
x
ij
- j-ta obserwacja w i-tej
grupie
μ - średnia populacji 
τ
i
– efekt czynnika
doświadczalnego
ε
ij
– błąd losowy
i=1,t
(t - liczba grup)
j=1,r
i
(r
i
– liczba
obserwacji w i-tej 
                  grupie)
 
2
i
dla
n
,...
1
j
1
i
dla
n
,...
1
j
2
,
1
i
ε
τ
μ
x
2
1
ij
i
ij
2
n
2
2
2
n
2
1
n
1
1
1
n
1
22
2
22
12
1
12
21
2
21
11
1
11
ε
τ
μ
x
ε
τ
μ
x
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ε
τ
μ
x
ε
τ
μ
x
ε
τ
μ
x
ε
τ
μ
x
II
grupa
I
grupa
.
2
2
.
2
.
1
1
.
1
.
2
2
2
2
.
2
j
j
2
.
1
1
1
1
.
1
j
j
1
ε
τ
μ
x
ε
τ
μ
x
ε
τ
n
μ
n
x
x
ε
τ
n
μ
n
x
x
 
2
i
dla
n
,...
1
j
1
i
dla
n
,...
1
j
2
,
1
i
ε
τ
μ
x
2
1
ij
i
ij
)
ε
ε
(
)
τ
τ
(
)
μ
μ
(
x
x
ε
τ
μ
x
ε
τ
μ
x
2
1
2
1
2
1
.
2
2
.
2
.
1
1
.
1
 zakładając, że średnio błędy losowe
 są równe 0, różnica między średnimi
stanowi różnicę między efektami 
czynnika doświadczalnego tzn.
2
1
2
1
τ
τ
x
x
 
Tabela jednoczynnikowej 
analizy wariancji
1
N
C
x
SS
ij
T
2
1
t
C
r
.
x
SS
i
2
i
G
1
t
SS
MS
G
G
E
G
MS
MS
F 
0
t
N
G
T
E
SS
SS
SS
t
N
SS
MS
E
E
Źródło 
zmienności
df
stopnie
swobo
dy
SS
suma kwadratów
MS
średni kwadrat
(wariancja)
F
0
statystyka
testowa
Ogólna
–
–
Między 
grupami
(poziomami 
czynnika)
Błąd
(wewnątrz 
grup)
ij
i
ij
ε
τ
μ
x
 
Jednoczynnikowa analiza
wariancji
Oznaczenia:
N=t·r  (liczba obserwacji w 
doświadczeniu)
df (degrees of freedom) – stopnie
swobody
SS (Sum of Squares) – suma kwadratów
MS (Mean Square) – średni kwadrat
C (Correction) – poprawka
rt
x
C
2
j
,
i
ij
 
Jednoczynnikowa analiza
wariancji
Ogólna suma kwadratów (SS
T
) =
C
)
x
...
x
x
...
x
...
x
x
x
...
x
x
(
C
x
2
tr
2
2
t
2
1
t
2
r
2
2
22
2
21
2
r
1
2
12
2
11
j
,
i
2
ij
 
Jednoczynnikowa analiza
wariancji
Międzygrupowa suma kwadratów (SS
G
) =
C
r
)
x
...
x
x
(
...
r
)
x
...
x
x
(
r
)
x
...
x
x
(
C
...
C
t
2
tr
2
t
1
t
2
2
r
2
22
21
1
2
r
1
12
11
r
x
r
x
r
x
i
r
x
t
2
1
t
2
.
t
2
2
.
2
1
2
.
1
i
2
.
i
 
Jednoczynnikowa analiza
wariancji
Suma kwadratów dla błędu (SS
E
) =
ogólna suma kwadratów (SS
T
)
– międzygrupowa suma kwadratów
(SS
G
)
SS
E
= SS
T
– SS
G
inaczej:
i
j
i
2
i
2
ij
E
r
x
x
SS
 
Jednoczynnikowa analiza
wariancji
Średni kwadrat (MS) jest 
oszacowaniem wariancji między 
obserwacjami:
t
N
SS
df
SS
MS
1
t
SS
df
SS
MS
E
E
E
E
G
G
G
G
 
Jednoczynnikowa analiza
wariancji
Hipoteza zerowa weryfikowana jest za pomocą
testu F:
Jeśli F
0
> F
α
to odrzucamy H
0
Jeśli F
0
< F
α
to nie ma podstaw do odrzucenia
H
0
F
α
- tablicowa wartość testu F zależna od
poziomu istotności α oraz odpowiednich stopni
swobody (df
G
i df
E
)
α=0,05 to różnice między średnimi istotne
α=0,01 to różnice między średnimi wysoce 
istotne
E
G
o
MS
MS
F 
 
Jednoczynnikowa analiza
wariancji
Istotna wartość testu F
0
(tzn. odrzucenie
H
0
) oznacza, że różne poziomy czynnika
doświadczalnego miały istotnie różny 
wpływ na obserwacje w grupach tzn. że 
grupy nie pochodzą z populacji o wspólnej, 
takiej samej wartości średniej (μ) 
Nie oznacza to istnienia istotnej różnicy 
między każdą parą średnich grupowych, a 
jedynie istnienie co najmniej jednej pary 
średnich które różnią się istotnie
 
Przykład
Badano zawartość azotu w czterech
odmianach czerwonej koniczyny 
Czy między odmianami zachodzą 
istotne różnice w średniej zawartości
tego pierwiastka?
H
0
: μ
1
= μ
2
= μ
3
= μ
4
(tzn. średnia zawartość azotu jest taka
sama)
H
A
: ~(μ
1
= μ
2
= μ
3
= μ
4
)
 
Przykład
ij
x
2
ij
x
j
ij
x
2
ij
x
grup
a
I
II
III
IV
   19,4    17,7    17,0    20,7
   32,6    24,8    19,4    21,0
   27,0    27,9      9,1    20,5
   32,1    25,2    11,9    18,8
   33,0    24,3    15,8    18,6
  
144
,1
119
,9
73,2 99,6
436,8
4287,
53
2932,
27
1139,
42
1989,
14
10348,36
648
,
808
C
36
,
10348
SS
712
,
9539
C
:
poprawka
20
5
4
N
:
obserwacji
liczba
T
20
8
,
436
2
 
Przykład
ij
x
516
,
264
132
,
544
648
,
808
SS
132
,
544
712
,
9539
84
,
10083
C
5
22
,
50419
C
5
6
,
99
2
,
73
9
,
119
1
,
144
:
SS
E
2
2
2
2
G
x
j
ij
x
i
x
I
II
III
IV
144,1
119,9
73,2
99,6
436,8
28,82
23,98
14,64
19,92
21,84
 
Przykład
ij
x
516
,
264
5
6
,
99
14
,
1989
...
5
1
,
144
53
,
4287
r
x
x
SS
:
inaczej
liczone
SS
2
2
i
j
i
2
i
2
ij
E
E
j
ij
x
I
II
III
IV
144,1
119,9
73,2
99,6
436,8
4287,
53
2932,2
7
1139,4
2
1989,1
4
10348,36
 
Tabela analizy 
wariancji
Źródło 
zmienności
df
stopnie
swobo
dy
SS
suma kwadratów
MS
średni kwadrat
(wariancja)
F
0
statystyka testowa
Ogólna
 N-1
  19
SS
T
=808,
65
–
–
Między 
grupami
(poziomami 
czynnika)
  t-1
   3
SS
G
=544,
13
MS
G
=181,
38
F
0
=181,38/
16,53=10,
97
**
F
0,05
=3,24
F
0,01
=5,29
Błąd
(wewnątrz 
grup)
 N-t
 16
 
SS
E
=264,
52
 
MS
E
=16,5
3
 
Analiza wariancji
I
II
III
IV
144,
1
119,
9
73,2 99,6
436,8
28,8
2
23,9
8
14,6
4
19,9
2
21,84
ij
x
ij
x
i
x
x
F
0
> F
0,05
oraz
F
0
> F
0,01
więc
odrzucamy H
0
odrzucenie H
0
na obu poziomach
istotności (α=0,05 i α=0,01) oznacza 
że między średnimi
 czterech porównywanych grup 
występują wysoce
 istotne różnice (na pewno między I i III 
grupą)