PYTAMY O RÓŻNICĘ - 2 GRUPY
Musimy sprawdzić normalność żeby wiedzieć czy używamy testu parametrycznego (t- studenta) czy nieparametrycznego (U Manna/serii)
SPRAWDZANIE NORMALNOŚCI DLA GRUP NIEZALEŻNYCH:
Statystyki statystyki podstawowe i tabele opisowe zmienne (co się zmienia?) zakładka „w. skategoryzowane normalności (na dole) zmienna grupująca (co nam grupuje dane) otrzymujemy dwa wykresy dla grupy 1 i 2, jeśli kropki leżą blisko linii czerwonej to rozkład normalny
Dalej: (histogram) Statystyki statystyki podstawowe i tabele opisowe zmienne (co się zmienia?) zakładka „normalność” zaznaczamy test K-S i Shapiro-Wilka histogramy nad wykresem otrzymujemy p (Liliefors) czyli błąd I rodzaju (prawdopodobieństwo odrzucenia prawdziwej Ho) jeśli p < lub = 0,05 odrzucamy Ho
Mamy normalność test t-studenta
Statystyki statystyki podstawowe i tabele test t- dla prób niezależnych (wzgl. grup) lub zależnych (pary wiązane) zmienna zależna, zmienna grupująca opcje (na dole zakładka) zaznaczamy test Lewena i z niezależną estymacją podsumowanie testy t otrzymujemy tabelkę odczytujemy statystykę - t, stopnie swobody - df oraz p (to bardziej po lewej stronie jeśli Lewen pokazuje ze wariancje są równe, bardziej po prawej stronie jeśli Lewen pokazuje ze wariancje są różne p<0,05) p – po prawej stronie informuje nas o tym czy wariancje są równe! Tabelka na czarno – nie ma różnic, tabelka na czerwono – są różnice p<0,05 następnie wracamy do analizy, wracamy do zakładki „podstawowe” i dajemy wykres ramka-wąsy (zakładka „więcej” wykres ramka wąsy -> typ wykresu średnia/bład/odch)
Test Lewena pozwala sprawdzić czy wariancje są równe Ho – są równe, p Lewena pozwala przyjąć lub odrzucić tą hipotezę.
Podajemy: statystykę t, df, p
Brak normalności test U-M Whitneya
Statystyka Statystyki Nieparametryczne porównywanie dwóch prób niezależnych (grup) test U-Manna Withneya otrzymujemy tabelkę z której odczytujemy p ( z prawej strony chociaż oba takie same) i przyjmujemy lub odrzucamy Ho wracamy do analizy, wykres ramka – wąsy (dla grup) zaznaczymy wszystkie grupy
Podajemy: statystykę t, df, p, N
SPRAWDZANIE NORMALNOŚCI DLA GRUP ZALEŻNYCH:
Statystyki statystyki podstawowe i tabele opisowe wykres prawdopodobieństwa i rozrzutu wykres normalności zmienne (robimy osobno wykres dla jednej i drugiej zmiennej – mamy uzyskać dwa wykresy rozrzutu) jeśli kropki leżą blisko linii czerwonej to rozkład normalny
Statystyki statystyki podstawowe i tabele opisowe zmienne (osobno robimy dla jednej i drugiej) mamy uzyskać dwa histogramy, nad wykresem otrzymujemy p (Liliefors) czyli błąd I rodzaju (prawdopodobieństwo odrzucenia prawdziwej Ho) jeśli p < lub = 0,05 odrzucamy Ho
Mamy normalność test t- dla par wiązanych
Statystyki statystyki podstawowe i tabele test t dla prób zależnych ustalamy zmienne podsumowanie testów t pojawia się tabelka odczytujemy statystykę - t, stopnie swobody - df oraz p i na tej podstawie przyjmujemy lub odrzucamy Ho następnie wracamy do analizy, wracamy do zakładki „podstawowe” i dajemy wykres ramka-wąsy (zakładka „więcej” wykres ramka wąsy -> typ wykresu średnia/bład/odch)
Podajemy: statystykę t, liczbę par wiązanych Z, p
Brak normalności test Wilcoxona /test znaków
Wilcoxon
Statystyka Statystyki Nieparametryczne porównywanie dwóch prób zależnych (zmiennych) test kolejności Par Wilcoxona dostajemy tabelkę z której odczytujemy p i przyjmujemy lub odrzucamy Ho (ten test mocniejszy!!!!!!!!) wracamy do analizy, wykres ramka-wąsy (Mediana/kwartyle/rozstęp) dla wszystkich grup
Znaków
Statystyka Statystyki Nieparametryczne porównywanie dwóch prób zależnych (zmiennych) test znaków dostajemy tabelkę z której odczytujemy p i przyjmujemy lub odrzucamy Ho wracamy do analizy, wykres ramka-wąsy (Mediana/kwartyle/rozstęp)
Podajemy: statystykę t, liczbę par wiązanych Z, p
PYTAMY O RÓŻNICĘ – WIĘCEJ NIŻ 2 GRUPY
SPRAWDZAMY ZAŁOŻENIA jak w przypadku regresji:
Statystyka zaawansowane modele liniowe i nieliniowe ogólne modele liniowe (OK.) zmienne zmienna druga jakościowa (uzupełniamy pierwsze i ostatnie okno, środkowe mówi o predyktorach, zmienna zależna to ta która zależy od czegos a niezależna to ta na którą nie mamy wpływu) dwa razy OK. otwiera się okno WYNIKI zakłądka „Reszty” normalność reszt (pojawia się wykres inf. o normalności rokładu) wracamy do analizy, zakładka „ przewid.a reszty” pojawia się wykres inf. o homogenności wracamy do analizy, zakładka „ więcej wyników” na dole zakładka „ założenia” rozrzutu + test Levena (równość wariancji)
ZAŁOŻENIA SPEŁNIONE – TEST PARAMETRYCZNY – RÓWNE WARIANCJE ANOVA
Widok – wstążka
Dane sterta (pierwsza tabelka z lewej strony w widoku wstążka) ułóż w stertę zmienne (wszystkie) ok. ok.
Statystyki ANOVA ANOVA jednoczynnikowa zmienne ok. ok. zakładka „reszty” przewid. a reszty pojawia nam się wykres rozkład pkt. musi być równomierny wracamy do analizy, normalność reszt wracamy do analizy, zakładka „podstawowe” wszystkie efekty pojawia nam się tabelka z niej bierzemy p, jeśli mniejsze od 0,05 to znaczy ze są różnice, odrzucamy Ho, ale nie wiemy jeszcze między którymi grupami, do tego wykorzystujemy test Tukeya
Nie wiemy którego Tukeya użyć więc klikamy: Wracamy do analizy danych więcej wyników (na samym dole) Średnie Obserwowane.nieważone generuje nam to tabelkę z której patrzymy czy N (ostatnia kolumna różni się czy nie) teraz już wiemy czy Tukeya HSD czy dla różnych średnich
Wracamy do analizy danych więcej wyników (na samym dole) zakładka „post-hoc” Test Tukeya dla różnych średnich lub HSD pojawia nam się tabelka co różni się od czego wracamy do analizy, zakłądka „podsumowanie” średnie/wykresy 1 efekt ok. pojawia nam się wykres
ZAŁOŻENIA NIE SPEŁNIONE – TEST NIEPARAMETRYCZNY – RÓŻNE WARIANCJE
Nie możemy użyć ANOVY! Używamy testu Kruskala – Wallisa
Statystyka statystyki nieparametryczne porównanie wielu prób niezależnych (Grup) ok. porównanie test ANOVA Kruskala – Wallisa zmienne pojawia nam się tabelka na gorze odczytujemy p, jeśli mniejsze od 0,05 odrzycamy Ho wracamy do analizy, zakładka „wielokrotne porównania średnich rang dla wszystkich prób pojawia się tabelka patrzymy co rózni się od czego (konkretnie która grupa od której) wracamy do analizy, wykres ramka-wąsy Mediana/kwartle/rozstep (nie może być średnich bo rozkład nienormalny) powstaje nam wykres
PYTAMY O ZALEŻNOŚĆ –KORELACJA I REGRESJA
Testy parametryczne! ZAŁOŻENIA:
Dane pochodzą z populacji o rozkładzie normalnym (informuje nas o tym normalność reszt)
Wariancje muszą być homogenne (o tym informuje nas przewidywanie reszt)
Zależność ma kształt liniowy (o tym informuje nas wykres rozrzutu)
Dane są pobrane losowo i niezależnie
SPRAWDZAMY ZAŁOŻENIA:
Statystyka zaawansowane modele liniowe i nieliniowe ogólne modele liniowe (OK.) zmienne (uzupełniamy pierwsze i ostatnie okno, środkowe mówi o predyktorach, zmienna zależna to ta która zależy od czegos a niezależna to ta na którą nie mamy wpływu) dwa razy OK. otwiera się okno WYNIKI zakłądka „Reszty” normalność reszt (pojawia się wykres inf. o normalności rokładu) wracamy do analizy, zakładka „ przewid.a reszty” pojawia się wykres inf. o homogenności wracamy do analizy, zakładka „ więcej wyników” na dole zakładka „ założenia” rozrzutu
ZAŁOŻENIA SPEŁNIONE – TEST PARAMETRYCZNY:
Jeśli do tej pory wszystko było okej, wszystkie założenia mamy spełnione to wracamy do analizy danych, zakłądka „podsumowanie” współczynniki pojawia się tabelka z niej odczytujemy wyraz wolny (nasze przecięcie z osią, oraz pod spodem wartość nachylenia do osi) wracamy do analizy R pełnego modelu pojawia się tabelka z której odczytujemy R (korelacja)
R= +1 silna korelacja na plus
R= -1 silna korelacja na minus
R = 0 brak korelacji
Znowu wracamy do analizy wszystkie efekty pojawia się tabelka patrzymy na p (to niżej) powinno być takie samo jak p w przypadku analizy R pełnego modelu i przyjmujemy lub odrzucamy Ho (Ho – brak zależności)
Podajemy: wartość statystyki F, p, R, df i R kwadrat
ZAŁOŻENIA NIE SPEŁNIONE – TEST NIEPARAMETRYCZNY:
Statystyka statystyki nieparametryczne Korelacja Spearmana macierz kwadratowa zmieniamy na szczegółowy raport!!!!! zmienne R Spearmana pojawia się tabelka z której odczytujemy p i albo odrzucamy albo przyjmujemy Ho, oraz R – jak silny jest związek
Podajemy:, p, R Spearmana, i N ważnych
DODATKOWE UWAGI
Wykresy najlepiej ilustrujące analizę:
Dla testu t – ramka-wąsy
Dla regresji, korelacji – wykres rozrzutu
Dla ANOVY – średnie/wykresy
Żeby transformować dane w statystyce:
Nowa kolumna nowa zmienna na dole w okienku transformujemy i robimy histogram z nowych danych patrząc co się zmieni
Transformacje:
Logarytm: log (Vx)
Funkcja wykładnicza: exp (Vx)
Potęgowanie: Vx ^ 2 lub 3 itd