background image

Jednoczynnikowa analiza 

wariancji

 

Jednoczynnikowa analiza 
wariancji
 jest testem 
statystycznym opracowanym przez 
Ronalda Fishera i wykorzystującym 
podział wariancji dla badanej cechy 
na składowe związane ze źródłami 
zmienności uwzględnionymi w 
modelu liniowym

background image

Jednoczynnikowa analiza 

wariancji

 

Badamy pewną cechę (np. przyrosty masy 
ciała, plony) po zastosowaniu jednego 
czynnika doświadczalnego (np. poziomu 
żywienia, rodzaju nawożenia). 
Mamy t poziomów czynnika 
doświadczalnego (t dawek żywieniowych, t 
rodzajów nawożenia) i wybieramy do 
doświadczenia t grup (t grup zwierząt, t 
pól), przy czym t ≥ 3
W każdej grupie jest r

i

 elementów (zwierząt, 

pól) na których wykonujemy doświadczenie 

background image

Jednoczynnikowa analiza 

wariancji

 

Czy zastosowany czynnik doświadczalny 

wpływa istotnie na badaną cechę?
Hipoteza zerowa:
H

0

: μ

1

 = μ

2

 = μ

3

 = …. = μ

t

Hipoteza alternatywna:
H

A

: ~(μ

1

 = μ

2

 = μ

3

 = …. = μ

t

)

Jednoczynnikowa analiza wariancji 

jest testem służącym do weryfikacji 

hipotezy H

0

 zakładającej równość 

wartości średnich t grup 

(reprezentujących t populacji)

background image

Model liniowy 

jednoczynnikowej analizy 

wariancji

 

ij

i

ij

ε

τ

μ

x

x

ij 

- j-ta obserwacja w i-tej 

grupie
μ - średnia populacji 
τ

i

 – efekt czynnika 

doświadczalnego
ε

ij

 – błąd losowy

i=1,t 

  (t - liczba grup)

j=1,r

i

  (r

i

 – liczba 

obserwacji w i-tej 
                  grupie)

background image

2

i

  

dla

  

n

,...

1

j

  

          

1

i

  

dla

  

n

,...

1

j

   

2

,

1

i

ε

τ

μ

x

2

1

ij

i

ij

2

n

2

2

2

n

2

1

n

1

1

1

n

1

22

2

22

12

1

12

21

2

21

11

1

11

ε

τ

μ

x

  

          

          

ε

τ

μ

x

..

 .

 .

 .

 .

 .

 .

 .

 .

 .

 .

 .

 .

 .

 .

 .

 .

 .

   

          

          

.

ε

τ

μ

x

    

          

          

ε

τ

μ

x

ε

τ

μ

x

    

          

          

ε

τ

μ

x

 

II

 

grupa

I

 

grupa

.

2

2

.

2

.

1

1

.

1

.

2

2

2

2

.

2

j

j

2

.

1

1

1

1

.

1

j

j

1

ε

τ

μ

x

         

          

          

          

ε

τ

μ

x

      

ε

τ

n

μ

n

x

x

         

          

ε

τ

n

μ

n

x

x

background image

2

i

  

dla

  

n

,...

1

j

  

          

1

i

  

dla

  

n

,...

1

j

   

2

,

1

i

ε

τ

μ

x

2

1

ij

i

ij

)

ε

ε

(

)

τ

τ

(

)

μ

μ

(

x

x

ε

τ

μ

x

        

          

ε

τ

μ

x

      

2

1

2

1

2

1

.

2

2

.

2

.

1

1

.

1

 zakładając, że średnio błędy losowe
 są równe 0, różnica między średnimi
stanowi różnicę między efektami 
czynnika doświadczalnego tzn.

2

1

2

1

τ

τ

x

x

background image

Tabela jednoczynnikowej 
analizy wariancji

 

1

N

C

x

SS

ij

T

2

1

t

C

r

.

x

SS

i

2

i

G

1

t

SS

MS

G

G

E

G

MS

MS

0

t

N

G

T

E

SS

SS

SS

t

N

SS

MS

E

E

Źródło 
zmienności

df

stopnie 

swobo

dy

SS

suma kwadratów

MS

średni kwadrat

(wariancja)

F

0

statystyka 

testowa

Ogólna

Między 
grupami

(poziomami 
czynnika)

Błąd

(wewnątrz 
grup)

ij

i

ij

ε

τ

μ

x

background image

Jednoczynnikowa analiza 

wariancji

Oznaczenia:
N=t·r  (liczba obserwacji w 

doświadczeniu)

df (degrees of freedom) – stopnie 

swobody

SS (Sum of Squares) – suma kwadratów
MS (Mean Square) – średni kwadrat
C (Correction) – poprawka

rt

x

C

2

j

,

i

ij





background image

Jednoczynnikowa analiza 

wariancji

Ogólna suma kwadratów (SS

T

) =

C

)

x

...

x

x

...

x

...

x

x

x

...

x

x

(

C

x

2

tr

2

2

t

2

1

t

2

r

2

2

22

2

21

2

r

1

2

12

2

11

j

,

i

2

ij

background image

Jednoczynnikowa analiza 

wariancji

Międzygrupowa suma kwadratów (SS

G

) =

C

r

)

x

...

x

x

(

...

r

)

x

...

x

x

(

r

)

x

...

x

x

(

C

...

C

t

2

tr

2

t

1

t

2

2

r

2

22

21

1

2

r

1

12

11

r

x

r

x

r

x

i

r

x

t

2

1

t

2

.

t

2

2

.

2

1

2

.

1

i

2

.

i

background image

Jednoczynnikowa analiza 

wariancji

Suma kwadratów dla błędu (SS

E

) =

   ogólna suma kwadratów (SS

T

)  

    – międzygrupowa suma kwadratów 

(SS

G

              SS

E

 = SS

T

 – SS

G

inaczej:





i

j

i

2

i

2

ij

E

r

x

x

SS

background image

Jednoczynnikowa analiza 

wariancji

Średni kwadrat (MS) jest 
oszacowaniem wariancji między 
obserwacjami:

t

N

SS

df

SS

MS

1

t

SS

df

SS

MS

E

E

E

E

G

G

G

G

background image

Jednoczynnikowa analiza 

wariancji

Hipoteza zerowa weryfikowana jest za pomocą 

testu F:

Jeśli F

> F

α

 to odrzucamy H

0

Jeśli F

< F

α

 to nie ma podstaw do odrzucenia 

H

0

F

α

 - tablicowa wartość testu F zależna od 

poziomu istotności α oraz odpowiednich stopni 

swobody (df

G

 i df

E

)

α=0,05 to różnice między średnimi istotne
α=0,01 to różnice między średnimi wysoce 

istotne

E

G

o

MS

MS

F 

background image

Jednoczynnikowa analiza 

wariancji

Istotna wartość testu F

0

 (tzn. odrzucenie 

H

0

) oznacza, że różne poziomy czynnika 

doświadczalnego miały istotnie różny 
wpływ na obserwacje w grupach tzn. że 
grupy nie pochodzą z populacji o wspólnej, 
takiej samej wartości średniej (μ) 
Nie oznacza to istnienia istotnej różnicy 
między każdą parą średnich grupowych, a 
jedynie istnienie co najmniej jednej pary 
średnich które różnią się istotnie

background image

Przykład

Badano zawartość azotu w czterech 

odmianach czerwonej koniczyny 
Czy między odmianami zachodzą 

istotne różnice w średniej zawartości 

tego pierwiastka?
H

0

: μ

1

 = μ

2

 = μ

3

 = μ

4

(tzn. średnia zawartość azotu jest taka 

sama)
H

A

: ~(μ

1

 = μ

2

 = μ

3

 = μ

4

)

background image

Przykład

ij

x

2

ij

x

j

ij

x

2

ij

x

grup

a

     I

    II

    III

    IV

   19,4    17,7    17,0    20,7
   32,6    24,8    19,4    21,0
   27,0    27,9      9,1    20,5
   32,1    25,2    11,9    18,8
   33,0    24,3    15,8    18,6
  

144

,1

  

119

,9

   73,2    99,6

436,8

4287,

53

2932,

27

1139,

42

1989,

14

10348,36

648

,

808

C

36

,

10348

SS

712

,

9539

C

:

poprawka

20

5

4

N

:

obserwacji

liczba

T

20

8

,

436

2

background image

Przykład

ij

x

516

,

264

132

,

544

648

,

808

SS

132

,

544

712

,

9539

84

,

10083

C

5

22

,

50419

C

5

6

,

99

2

,

73

9

,

119

1

,

144

:

SS

E

2

2

2

2

G

x

j

ij

x

i

x

I

II

III

IV

144,1

119,9

73,2

99,6

436,8

28,82

23,98

14,64

19,92

21,84

background image

Przykład

ij

x

516

,

264

5

6

,

99

14

,

1989

...

5

1

,

144

53

,

4287

r

x

x

SS

:

inaczej

liczone

SS

2

2

i

j

i

2

i

2

ij

E

E













j

ij

x

I

II

III

IV

144,1

119,9

73,2

99,6

436,8

4287,

53

2932,2

7

1139,4

2

1989,1

4

10348,36

background image

Tabela analizy 
wariancji

 

Źródło 
zmienności

df

stopnie 

swobo

dy

SS

suma kwadratów

MS

średni kwadrat

(wariancja)

F

0

statystyka testowa

Ogólna

 N-1
  19

 

SS

T

=808,

65

Między 
grupami

(poziomami 
czynnika)

  t-1
   3

 

SS

G

=544,

13

MS

G

=181,

38

F

0

=181,38/

16,53=10,

97

**

F

0,05

=3,24

F

0,01

=5,29

Błąd

(wewnątrz 
grup)

 N-t
 16

 
SS

E

=264,

52

 
MS

E

=16,5

3

background image

Analiza wariancji

I

II

III

IV

144,

1

119,

9

73,2 99,6

436,8

28,8

2

23,9

8

14,6

4

19,9

2

21,84

ij

x

ij

x

i

x

x

F

0

 > F

0,05

 

oraz 

F

0

 > F

0,01

 

więc 

odrzucamy H

0

odrzucenie H

0

 

na obu poziomach 

istotności (α=0,05 i α=0,01) oznacza 
że między średnimi
 czterech porównywanych grup 
występują wysoce
 istotne różnice (na pewno między I i III 
grupą)


Document Outline