8 test post hock

8. Wyjaśnij pojęcie testu post-hoc i wymień przykłady takich testów.

Odrzucamy H0 w analizie wariancji -> czyli nie wszystkie średnie dla poziomów czynnika są identyczne.

Pojawia się problem: które średnie nie są równe.

Testy POST HOC (testy „po fakcie”, znane również pod nazwą porównań wielokrotnych) wykonuje się jako kolejny krok analizy wariancji, pozwalają one znaleźć pary średnich istotnie się różniące.

Wyjaśnienie z neta jeśli któraś z Was by potrzebowała: Sama analiza wariancji mówi nam tylko o tym czy różnice w porównywanych średnich występują czy nie. Nie wiemy jednak między którymi grupami zachodzą te różnice. Istotny współczynnik F wskazuje jedynie na słuszność (lub brak słuszności) odrzucenia hipotezy zerowej. Jeśli ją odrzucimy musimy dowiedzieć się czy wszystkie średnie różnią się między sobą czy tylko niektóre. Stąd też nazwa “po fakcie” – wykonujemy je dopiero po sprawdzeniu czy wynik F jest istotny statystycznie. Jeśli nie jest, nie musimy wykonywać testów POST HOC.

Ogólnie testy te powinny być tak konstruowane, żeby przy wykonywaniu porównań między parami średnich utrzymywać na ustalonym z góry poziomie prawdopodobieństwo popełnienia błędu I-rodzaju, który polega na odrzuceniu prawdziwej hipotezy zerowej.

Istnieje wiele testów dla porównań post hoc. Przykłady – trzeba koniecznie podać Tukeya:

Test t-studenta w parach z korektą Bonferroniego

Taki test bierze poprawkę na ilość wykonywanych porównań. Dotychczasowy poziom istotności α = 0,05 dzielimy przez liczbę zaplanowanych do przeprowadzenia testów t-studenta w parach – otrzymując nowy poziom istotności α* (α*< α). Odrzucamy H0 w danym teście t-studenta, gdy p-wartość < α*.

Bardzo dobrze spisuje się w przypadku małej liczby porównań (stosujemy gdy ich liczba nie przekracza 5). 

Przy tej metodzie nadmiernie wzrasta prawdopodobieństwo popełnienia błędu II rodzaju – zbyt rzadko pozwala na odrzucenie fałszywej H0.

Rozwiązanie z poprawką Bonferroniego jest jednak uważane za lepsze niż stosowanie zwykłych testów t-studenta w parach, ponieważ w statystyce na ogół bardziej zależy nam na kontrolowaniu błędu I-rodzaju niż II rodzaju. Za groźniejsze uważamy odrzucenie prawdziwej H0(błąd I-rodzaju) niż przyjęcie fałszywej H0(błąd II-rodzaju).

Test Najmniejszej Istotnej Różnicy NIR – metoda Fishera

Jest to najstarszy test wielokrotnych porównań.

Pomysł Fishera polegał na tym żeby przyjąć wspólne dla wszystkich porównań oszacowanie dla wariancji równicy średnich jako MSW.

Zaleta: metoda Fishera może być stosowana w przypadku nierównych liczebności grup.

Wada: metoda nie zapobiega w wystarczającym stopniu wzrostowi prawdopodobieństwa błędu I-rodzaju.

Metoda NIR jest niewiele lepsza od zwykłych testów t-studenta w parach. Nie bierze poprawki na ilość porównań. Najczęściej używa się jej do potwierdzenia innych wyników testów POST HOC

Test Tukeya HSD (HonestySignificantDifference - uczciwie istotnej różnicy )– Jest to test najbardziej polecany do porównywania par średnich. Możliwy do stosowania tylko dla równej liczebności grup.

Metoda HSD Tukeya jest najbardziej godna polecenia do dokonywania porównań w parach, ponieważ utrzymuje w ryzach prawdopodobieństwo popełnienia błędu I-rodzaju. Nie dopuszcza do jego nadmiernego wzrostu co skutkowałoby wskazywaniem statystycznie istotnych różnic w parach, tam gdzie ich nie ma.

Metoda ta nie prowadzi także do nadmiernego wzrostu prawdopodobieństwa błędu II-rodzaju, tzn. nie będzie nadmiernie często sytuacji, kiedy H0 będzie fałszywa, a my jej nie odrzucimy.

Minus HSD Tukeya: należy spełnić założenie o równości liczebności porównywanych grup. W pakietach statystycznych istnieją modyfikację metody HSD Tukeya dla nierównych liczebności, ale nie ma ona aż tak dobrych własności jak HSD Tuckeya.

Przykład testu Tukeya:

Mamy 3 rodzaje paszy: A, B, C – badamy różnice w przyroście masy ciała w zależności od rodzaju paszy, którą są karmione kurczaki.

Wniosek do analizy wariancji: ponieważ p-wartość < od alfa=0,05, to należy odrzucić hipotezę zerową o tym, że średnie przyrosty dla każdej z pasz są takie same. Pasze różnicują wartości przyrostu wagi.

Ze względu na to, możemy zastosować test Tukey'a – szukamy par owsa statystycznie się różniących.

>TukeyHSD(aov(przyrost~pasza))

W teście TukeyHSD otrzymujemy wartości p-adj (p-wartość dopadowana) oraz dolny i górny zakres ufności.

Jeżeli p-adj> α=0,05 – para różni się w sposób statystycznie istotny

Jeżeli p-adj< α=0,05 – para nie różni się w sposób statystycznie istotny

Wniosek do testu Tukey’a: Dla par A -B oraz A-C otrzymałyśmy wartości p-adj> α = 0,05, czyli między nimi nie ma istotnej statystycznie różnicy. Natomiast dla pary B-C wartość p-adj była mniejsza od α = 0.05, dlatego między tymi paszami występuje istotna statystycznie różnica w przyroście masy.

> plot(TukeyHSD(aov(przyrost~pasza))) – wykres dla naszych pasz


Wyszukiwarka

Podobne podstrony:
8 test post hock
Test W.Post i Wielkanoc, konspekty scenariusze, testy
05 READING POST TEST Student
TEST WIADOMOŚCI-Wielki Post, TEST WIADOMOŚCI:
Pre post test
TEST NR 5
test dobry
test poprawkowy grupa 1
TEST zalicz mikroskopia czescETI z odpowiedz
Wyklad 9 Post HF
Zajecia 6 7 Test Niedokonczonych Zdan
etyka test
Test osobowości Dalajlamy
dependent t test
TEST ZE ZDROWIA ŚRODOWISKOWEGO – STACJONARNE 2008 2

więcej podobnych podstron