Podejmowanie decyzji odnośnie H0 za pomocą testu F.
Korzystanie z tablic Snedecora wartości statystyki F.
Testem hipotezy zerowej ANOVA jest test F (Fishera).
Górne wartości F dla dwóch poziomów istotności: 0,05 i 0,01 (w tablicy 5).
Jeżeli HIPOTEZA ZEROWA jest fałszywa, to zawsze w liczniku stosunku F będzie większa wartości niż w mianowniku, i cały stosunek będzie większy od jedności, a zatem TEST HIPOTEZY ZEROWEJ jest TESTEM JEDNOSTRONNYM.
Jego wynik pozwala na odrzucenie hipotezy zerowej mówiącej o równości średnich grupowych i przyjęcie hipotezy alternatywnej, w myśl której co najmniej dwie średnie grupowe różnią się.
Jeżeli mamy więcej niż dwie grupy porównawcze, a w ANOVA na ogół tak jest, to wówczas stwierdzenie istotności różnic pociąga za sobą następne pytanie: które to średnie się różnią.
Nie wystarczy odrzucić hipotezy zerowej na rzecz hipotezy alternatywnej. Trzeba oddzielić te pary średnich, które różnią się istotnie, od tych par, które się nie różnią tej operacji oddzielenia można dokonać za pomocą któregoś z tzw. TESTÓW WIELOKROTNYCH PORÓWNAŃ (TEST HSD Tuckeya).
Odrzucenie hipotezy zerowej na rzecz hipotezy alternatywnej, głoszącej istotność danego czynnika A i czynnika B, czy interakcji czynnika A i czynnika B nie kończy jeszcze analizy danych.
Ogólny test F nie dostarcza szczegółowych informacji o specyfice wpływu czynnika A czy czynnika B na zmienną zależną, ani o specyfice wzajemnego oddziaływania poziomów obu czynników.
Poprawną statystycznie procedurą jest posłużenie się ANALIZĄ KONTRASTÓW, czyli PORÓWNAŃ WIELOKROTNYCH m średnich:
Porównań a priori (planowanych), gdy jesteśmy zainteresowani porównaniem tylko określonych średnich, a pozostałe porównania wyłączamy z kręgu naszej analizy
Porównań a posteriori (nie planowanych), gdy po stwierdzeniu, za pomocą ogólnego testu F istotności danego czynnika, interesuje nas wykrycie wszystkich par średnich istotnie różniących się między sobą.
Dlaczego stosujemy test HSD-Tukey'a, a nie wiele razy test t-Studenta?
Przy 4 grupach 4(4-1) / 2 = 6 par średnich. Te pary moglibyśmy uporządkować wedle wielkości różnicy między średnimi i rozpocząć testowanie od największych z nich. Testowanie zakończylibyśmy wówczas, gdy kolejna para średnich poddana testowi t okazałaby się nieistotna na danym poziomie α.
Niestety, to proste i logiczne z pozoru postępowanie jest z punktu widzenia teorii statystyki niepoprawne. Dlaczego?
Otóż, w wielkim z konieczności skrócie, wnioskowanie statystyczne dotyczące istotności różnic opiera się na założeniu, że dopuszczalne jest odrzucenie hipotezy zerowej, gdy mało prawdopodobne jest, iż zaobserwowana różnica między średnimi powstała przez przypadek. Jak definiujemy „przypadek”?
Określa go tzw. Poziom istotności statystycznej α, który badacz przyjmuje przed podjęciem decyzji statystycznej.
Społeczność badaczy umówiła się, że takim maksymalnym prawdopodobieństwem, określającym przypadkowe uzyskanie zarejestrowanej różnicy między średnimi, jest α=0,05 - chociaż w uzasadnionych wypadkach alfa może być znacznie mniejsze: od 0,01 do 0,0001.
Wyobraźmy sobie, że z określonej populacji wylosowaliśmy bardzo dużo prób, a na nich przeprowadziliśmy bardzo dużo identycznych eksperymentów, które ujawniły tyle samo różnic między średnimi. Te różnice były niejednakowej wielkości. Umawiamy się, że tylko nie więcej niż 5% (alfa 0,05) tych różnic nie będzie wywołanych rzeczywistym oddziaływaniem czynnika A na Y, ale błędem doboru próby - mimo, że różnica przekroczyła wartość progową ustaloną przez badacza. Tak więc na 1000 eksperymentów 50 wskazywałoby na występowanie różnicy, którą badacz przypisałby systematycznemu oddziaływaniu czynnika A na Y, a nie błędowi eksperymentalnemu.
Zwiększając liczbę porównywanych par średnich wpływamy na wielkość prawdopodobieństwa uzyskania, przez przypadek, co najmniej JEDNEJ ISTOTNEJ RÓŻNICY. Ponadto naruszylibyśmy warunek niezależności, a ustalony poziom alfa ma swój sens tylko wówczas, gdy przeprowadzone porównania są niezależne. Zatem to nie α=0,05, ale jakieś inne prawdopodobieństwo wyznacza poziom faktycznej istotności.
1