Jednoczynnikowa analiza
wariancji
Jednoczynnikowa analiza
wariancji jest testem
statystycznym opracowanym przez
Ronalda Fishera i wykorzystującym
podział wariancji dla badanej cechy
na składowe związane ze źródłami
zmienności uwzględnionymi w
modelu liniowym
Jednoczynnikowa analiza
wariancji
Badamy pewną cechę (np. przyrosty masy
ciała, plony) po zastosowaniu jednego
czynnika doświadczalnego (np. poziomu
żywienia, rodzaju nawożenia).
Mamy t poziomów czynnika
doświadczalnego (t dawek żywieniowych, t
rodzajów nawożenia) i wybieramy do
doświadczenia t grup (t grup zwierząt, t
pól), przy czym t ≥ 3
W każdej grupie jest r
i
elementów (zwierząt,
pól) na których wykonujemy doświadczenie
Jednoczynnikowa analiza
wariancji
Czy zastosowany czynnik doświadczalny
wpływa istotnie na badaną cechę?
Hipoteza zerowa:
H
0
: μ
1
= μ
2
= μ
3
= …. = μ
t
Hipoteza alternatywna:
H
A
: ~(μ
1
= μ
2
= μ
3
= …. = μ
t
)
Jednoczynnikowa analiza wariancji
jest testem służącym do weryfikacji
hipotezy H
0
zakładającej równość
wartości średnich t grup
(reprezentujących t populacji)
Model liniowy
jednoczynnikowej analizy
wariancji
ij
i
ij
ε
τ
μ
x
x
ij
- j-ta obserwacja w i-tej
grupie
μ - średnia populacji
τ
i
– efekt czynnika
doświadczalnego
ε
ij
– błąd losowy
i=1,t
(t - liczba grup)
j=1,r
i
(r
i
– liczba
obserwacji w i-tej
grupie)
2
i
dla
n
,...
1
j
1
i
dla
n
,...
1
j
2
,
1
i
ε
τ
μ
x
2
1
ij
i
ij
2
n
2
2
2
n
2
1
n
1
1
1
n
1
22
2
22
12
1
12
21
2
21
11
1
11
ε
τ
μ
x
ε
τ
μ
x
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ε
τ
μ
x
ε
τ
μ
x
ε
τ
μ
x
ε
τ
μ
x
II
grupa
I
grupa
.
2
2
.
2
.
1
1
.
1
.
2
2
2
2
.
2
j
j
2
.
1
1
1
1
.
1
j
j
1
ε
τ
μ
x
ε
τ
μ
x
ε
τ
n
μ
n
x
x
ε
τ
n
μ
n
x
x
2
i
dla
n
,...
1
j
1
i
dla
n
,...
1
j
2
,
1
i
ε
τ
μ
x
2
1
ij
i
ij
)
ε
ε
(
)
τ
τ
(
)
μ
μ
(
x
x
ε
τ
μ
x
ε
τ
μ
x
2
1
2
1
2
1
.
2
2
.
2
.
1
1
.
1
zakładając, że średnio błędy losowe
są równe 0, różnica między średnimi
stanowi różnicę między efektami
czynnika doświadczalnego tzn.
2
1
2
1
τ
τ
x
x
Tabela jednoczynnikowej
analizy wariancji
1
N
C
x
SS
ij
T
2
1
t
C
r
.
x
SS
i
2
i
G
1
t
SS
MS
G
G
E
G
MS
MS
F
0
t
N
G
T
E
SS
SS
SS
t
N
SS
MS
E
E
Źródło
zmienności
df
stopnie
swobo
dy
SS
suma kwadratów
MS
średni kwadrat
(wariancja)
F
0
statystyka
testowa
Ogólna
–
–
Między
grupami
(poziomami
czynnika)
Błąd
(wewnątrz
grup)
ij
i
ij
ε
τ
μ
x
Jednoczynnikowa analiza
wariancji
Oznaczenia:
N=t·r (liczba obserwacji w
doświadczeniu)
df (degrees of freedom) – stopnie
swobody
SS (Sum of Squares) – suma kwadratów
MS (Mean Square) – średni kwadrat
C (Correction) – poprawka
rt
x
C
2
j
,
i
ij
Jednoczynnikowa analiza
wariancji
Ogólna suma kwadratów (SS
T
) =
C
)
x
...
x
x
...
x
...
x
x
x
...
x
x
(
C
x
2
tr
2
2
t
2
1
t
2
r
2
2
22
2
21
2
r
1
2
12
2
11
j
,
i
2
ij
Jednoczynnikowa analiza
wariancji
Międzygrupowa suma kwadratów (SS
G
) =
C
r
)
x
...
x
x
(
...
r
)
x
...
x
x
(
r
)
x
...
x
x
(
C
...
C
t
2
tr
2
t
1
t
2
2
r
2
22
21
1
2
r
1
12
11
r
x
r
x
r
x
i
r
x
t
2
1
t
2
.
t
2
2
.
2
1
2
.
1
i
2
.
i
Jednoczynnikowa analiza
wariancji
Suma kwadratów dla błędu (SS
E
) =
ogólna suma kwadratów (SS
T
)
– międzygrupowa suma kwadratów
(SS
G
)
SS
E
= SS
T
– SS
G
inaczej:
i
j
i
2
i
2
ij
E
r
x
x
SS
Jednoczynnikowa analiza
wariancji
Średni kwadrat (MS) jest
oszacowaniem wariancji między
obserwacjami:
t
N
SS
df
SS
MS
1
t
SS
df
SS
MS
E
E
E
E
G
G
G
G
Jednoczynnikowa analiza
wariancji
Hipoteza zerowa weryfikowana jest za pomocą
testu F:
Jeśli F
0
> F
α
to odrzucamy H
0
Jeśli F
0
< F
α
to nie ma podstaw do odrzucenia
H
0
F
α
- tablicowa wartość testu F zależna od
poziomu istotności α oraz odpowiednich stopni
swobody (df
G
i df
E
)
α=0,05 to różnice między średnimi istotne
α=0,01 to różnice między średnimi wysoce
istotne
E
G
o
MS
MS
F
Jednoczynnikowa analiza
wariancji
Istotna wartość testu F
0
(tzn. odrzucenie
H
0
) oznacza, że różne poziomy czynnika
doświadczalnego miały istotnie różny
wpływ na obserwacje w grupach tzn. że
grupy nie pochodzą z populacji o wspólnej,
takiej samej wartości średniej (μ)
Nie oznacza to istnienia istotnej różnicy
między każdą parą średnich grupowych, a
jedynie istnienie co najmniej jednej pary
średnich które różnią się istotnie
Przykład
Badano zawartość azotu w czterech
odmianach czerwonej koniczyny
Czy między odmianami zachodzą
istotne różnice w średniej zawartości
tego pierwiastka?
H
0
: μ
1
= μ
2
= μ
3
= μ
4
(tzn. średnia zawartość azotu jest taka
sama)
H
A
: ~(μ
1
= μ
2
= μ
3
= μ
4
)
Przykład
ij
x
2
ij
x
j
ij
x
2
ij
x
grup
a
I
II
III
IV
19,4 17,7 17,0 20,7
32,6 24,8 19,4 21,0
27,0 27,9 9,1 20,5
32,1 25,2 11,9 18,8
33,0 24,3 15,8 18,6
144
,1
119
,9
73,2 99,6
436,8
4287,
53
2932,
27
1139,
42
1989,
14
10348,36
648
,
808
C
36
,
10348
SS
712
,
9539
C
:
poprawka
20
5
4
N
:
obserwacji
liczba
T
20
8
,
436
2
Przykład
ij
x
516
,
264
132
,
544
648
,
808
SS
132
,
544
712
,
9539
84
,
10083
C
5
22
,
50419
C
5
6
,
99
2
,
73
9
,
119
1
,
144
:
SS
E
2
2
2
2
G
x
j
ij
x
i
x
I
II
III
IV
144,1
119,9
73,2
99,6
436,8
28,82
23,98
14,64
19,92
21,84
Przykład
ij
x
516
,
264
5
6
,
99
14
,
1989
...
5
1
,
144
53
,
4287
r
x
x
SS
:
inaczej
liczone
SS
2
2
i
j
i
2
i
2
ij
E
E
j
ij
x
I
II
III
IV
144,1
119,9
73,2
99,6
436,8
4287,
53
2932,2
7
1139,4
2
1989,1
4
10348,36
Tabela analizy
wariancji
Źródło
zmienności
df
stopnie
swobo
dy
SS
suma kwadratów
MS
średni kwadrat
(wariancja)
F
0
statystyka testowa
Ogólna
N-1
19
SS
T
=808,
65
–
–
Między
grupami
(poziomami
czynnika)
t-1
3
SS
G
=544,
13
MS
G
=181,
38
F
0
=181,38/
16,53=10,
97
**
F
0,05
=3,24
F
0,01
=5,29
Błąd
(wewnątrz
grup)
N-t
16
SS
E
=264,
52
MS
E
=16,5
3
Analiza wariancji
I
II
III
IV
144,
1
119,
9
73,2 99,6
436,8
28,8
2
23,9
8
14,6
4
19,9
2
21,84
ij
x
ij
x
i
x
x
F
0
> F
0,05
oraz
F
0
> F
0,01
więc
odrzucamy H
0
odrzucenie H
0
na obu poziomach
istotności (α=0,05 i α=0,01) oznacza
że między średnimi
czterech porównywanych grup
występują wysoce
istotne różnice (na pewno między I i III
grupą)