Parametryczne testy istotności:
Test t dla średniej: Zastosowanie: Ocena, czy średnia wartość analizowanej cechy jest równa pewnej z góry zadanej wartości?
Dobór testu - sprawdzanie założeń: 1.Rozkład cechy populacji 2. Znane odchylenie standardowe 3. Liczebność próby (mała/duża próba)
Test t-Studenta dla zmiennych niepowiązanych (niezależnych): Zastosowanie: Ocena różnic między średnimi w dwóch próbach (grupach).Weryfikują H0 o równości średnich w dwóch grupach o równych lub różnych liczebnościach. Powiązanie pomiędzy zmienną mierzalną i zmienną jakościową.
założenia: 1.rozkład zmiennej w obu populacjach jest zgodny z rozkładem normalnym 2. Znajomość wariancji
Gdy założenia nie są spełnione: Test z niezależną estymacją wariancji = Test Cochrana-Coxa: (różne wariancje, różnicach w liczebnościach grup ale zmienne mają rozkład normalny)
Nieparametryczne alternatywy: Test serii Walda-Wolfowitza,, Test U Manna-Whitneya, Test Kołmogorowa-Smirnowa
Test t-Studenta dla zmiennych powiązanych (zależnych):
Zastosowanie: Ocena różnic między średnimi w dwóch próbach! Dwukrotny pomiar zmiennej mierzalnej u tych samych obiektów w pewnym odstępie czasu.
założenia: 1.rozkład zmiennej w obu populacjach jest zgodny z rozkładem normalnym 2. Wariancja - zazwyczaj nieznana
Nieparametryczne alternatywy: Test znaków, Test kolejności par Wilcoxona
WERYFIKACJA ZAŁOŻEŃ:
TESTY ZGODNOŚCI ROZKŁADU: dotyczą postaci rozkładu teoretycznego badanej zmiennej losowej skokowej lub ciągłej, ich celem jest porównanie rozkładów dwóch cech w jednej populacji lub jednej cechy w dwóch populacjach.
H0: X ma rozkład normalny H1: X nie ma rozkładu normalnego
Test Kołomogorowa-Smirnowa: dla jednej próby, Porównuje rozkład empiryczny z rozkładem teoretycznym, Znana średnia i odchylenie
Jeśli nie znamy średniej i odchylenia standardowego w populacji generalnej, stosujemy Test Kołmogorowa-Smirnowa z poprawką Lillieforsa.
Zastosowanie: 1.Dla zmiennych mierzalnych, których rozkład nie jest zgodny z rozkładem normalnym (rangi). 2.Dla zmiennych mierzalnych typu porządkowego (miarą tendencji - mediana)
Test W Shapiro-Wilka: duża moc, Można go również stosować do małych prób, Jeśli liczebność próby >2000 może dawać błędne wyniki - stosujemy wówczas test Lillieforsa lub test χ2
Test χ2 Pearsona: wyniki próby dzielone są na rozłączne klasy, a następnie porównuje się liczebności: obserwowaną i oczekiwaną w każdej z tych klas. liczebności różnią się istotnie = dana próba nie pochodzi z populacji, w której rozkład obserwowanej zmiennej losowej jest normalny.
TESTY JEDNORODNOŚCI WARIANCJI:
Formułowanie hipotez: H0: Wariancje we wszystkich grupach są jednorodne (równe) σ1 = σ2 = σ3 = σ H1: σ1≠ σ2 lub σ1≠ σ3 lub σ2≠ σ3
Test Levene'a: wartość statystyki jest istotna, to hipotezę o jednorodności wariancji należy odrzucić; Badanie k prób, gdy grupy mają różne liczebności - Test Browna i Forsytha
Test F: Test istotności dla dwóch wariancji w populacji generalnej, wnioskowanie oparte na dwóch niezależnych prób losowych wylosowanych z populacji generalnych, analizowana zmienna ma rozkład normalny, Średnia i odchylenie w populacjach - nieznane
Test Bartlett'a: Test istotności dla kilu wariancji populacji normalnych, Badanie k niezależnych populacji o rozkładach normalnych z nieznanymi parametrami m i σ
ANALIZA WARIANCJI - ANOVA:
Cel: ocena istotności różnic między średnimi przez porównanie wariancji. Jednoczynnikowa analiza wariancji - wpływ jednego czynnika na wyniki przeprowadzanego badania.
Zastosowanie: badanie wyników (doświadczeń, obserwacji), które zależą od jednego lub kilku czynników działających równocześnie ( leki, metody leczenia, płeć itd.). ANOVA pozwala sprawdzić, czy analizowane czynniki wywierają wpływ na obserwowane zmienne. Zmienna, która takiej obserwacji podlega, nosi nazwę zmiennej zależnej lub objaśnianej.
ANOVę stosujemy gdy mamy przynajmniej 3 populacje generalne.
Założenia i ocena ich spełnienia: 1. analizowana zmienna zależna - mierzalna (ilościowa) 2. rozważanych k niezależnych populacji ma rozkłady normalne - test Shapiro-Wilka lub χ2 3. jednorodność wariancji - test Levene'a
H0 - średnie w grupach są jednakowe H1 - co najmniej dwie średnie różnią się między sobą
Podstawą analizy wariancji jest możliwość rozbicia sumy kwadratów wariancji całkowitej na dwa składniki:
Sumę kwadratów opisującą zmienność wewnątrz grup 2.Sumę kwadratów opisującą zmienność między grupami/populacjami
Do porównywania ŚK pomiędzy grupami i ŚK reszt używamy testu F (Fishera-Snedecora) o k-1 i n-k stopniach swobody. Rozkład tej statystyki jest podstawą do wyznaczania obszaru krytycznego dla naszej hipotezy zerowej o równości wszystkich średnich: wartości F bliskie jedności potwierdzają sprawdzaną H0, wartości dużo większe niż 1 przemawiają za jej odrzuceniem.
TESTY POST-HOC: testy wielokrotnych porównań. stwierdzenia (za pomocą analizy wariancji) braku równości między średnimi.
Test Scheffégo: najbardziej konserwatywny, szerokie zastosowanie, gdyż uwzględnia nie tylko porównania par cech, ale wszystkie możliwe kontrasty gwarantuje łączny poziom istotności dla wszystkich testowanych par, błąd typu pierwszego jest najmniejszy
Test Tukeya: bardziej konserwatywny niż test NIR, ale mniej niż test Scheffégo, dwa wariantay: dla równej liczebności próbek i dla nierównej liczebności, oparty na "studentyzowanym" rozkładzie, polecany do porównań par średnich, można tworzyć grupy jednorodne, błąd pierwszego rodzaju jest tutaj mniejszy niż przy innych testach (NIR, Duncana, Newmana i Keulsa).
Test Newmana i Keulsa: oparty na tzw. „studentyzowanym” rozstępie, bada każdą hipotezę o równości średnich w pewnej grupie
za jego pomocą możemy tworzyć grupy jednorodne, nie może służyć do tworzenia przedziałów ufności.
Test Duncana: oparty na "studentyzowanym" rozstępie, nie może służyć do tworzenia przedziałów ufności, najczęściej stosowany jako sprawdzian innych testów
Test NIR - najmniejszych istotnych różnic: Polega na wyznaczeniu tzw. najmniejszych istotnych różnic, do średnich uporządkowanych niemalejąco; porównywanie rozpoczyna się od średnich najbardziej oddalonych. Test NIR jest najmniej odporny na zwiększenie wartości spowodowane wielokrotnymi porównaniami.